PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 2080/Ti Review-Thread


Seiten : 1 2 3 4 5 6 7 [8] 9 10 11 12 13 14 15 16 17 18 19

Edgecrusher86
2018-10-25, 12:23:12
Niemand sagt, dass es auch 352W ASIC sind, was die Karte zieht (sie dürfte es, ja). Aber Boost gegen Boost wurde verglichen und max. Targets - keine Optimierungen wie UV - Pascal und Vega liefen halt mit Blower!
Ja, ist halt Extreme Streaming an - maxed out. Mit Mein Leben! sind es auch mit der maximierten Air + 150% PT 76 fps. Es würde mich also wundern, wenn du mit der optimierten LCE dort fast 50% Mehrleistung heraus holst - 8GB sind halt nicht mehr genug maxed out. :)

https://abload.de/thumb/v64-meinlebenbgftq.jpg (https://abload.de/image.php?img=v64-meinlebenbgftq.jpg)
Mein Leben! mit der maximierten Air!

Ich pers. hatte die Karte optimiert mit ~ 1300 MHz, damit es leise und kühl mit UV ist (:D), auch mal @ 4K Extreme im U-Boot getestet - da habe ich dann beim herum Laufen auch mal nur 46 fps Minimum gesehen und grob 50er avg. fps. Ohne Extreme Streaming waren es um die 10 fps mehr und man kam auch mal über 60 fps.


Um nochmal auf Turing zurück zu kommen - zwei Posts aus dem SLI-Thread:

Nochmal schnell einige RTX 2080 Ti SLI Werte, die mir Blaire hat zukommen lassen - die Performance ist schon krank, wenn es läuft :)
-> Got some nice RTX 2080 Ti SLI benches provided by Blaire - those are some serious numbers, man:

Doom - 5K Nightmare Preset + 8xTrSSAA OGL 4.6 - 103 fps:
https://abload.de/image.php?img=doom-5knightmarexkij3.jpg

Doom - 8K Ultra Preset + 8xTrSSAA OGL 4.6 - 63 fps:
https://abload.de/image.php?img=doom-8kultra71cov.jpg

The Witcher III - 4K maxed out - 130 fps:
https://abload.de/image.php?img=tw3-4kmaxedoutb7d0s.jpg

W_D 1 - 4K+4xSGSSAA (enhanced) - 78 fps:
https://abload.de/image.php?img=w_d-4k4xsgssaaqgcl8.jpg

W_D 1 - 8K+4xTXAA - 50 fps:
https://abload.de/image.php?img=w_d-8k4xtxaaosfxe.jpg

Zudem gibt es nun mit NVLINK auch keine Performance Einbußen mehr, wenn man 3.0 x8 x8 (etwa per Patch auf einer HEDT-Plattform) zusammen mit TU-SLI plus G-SYNC verwendet - hat er in 4K und 5K in allen von ihm getesten Spielen.
Furthermore he said that even 3.0 x8 x8 (with a patch) plus using a G-SYNC display and 4K/5K resolution does provide identical performance compared to 3.0 x16 x16 in all games he tested. :cool:

Edgecrusher86 hat ja eigentlich schon das Wichtigste genannt. Ja, ich kann es auch kurz machen und auf umfangreiche Benchmark-Vergleiche verzichten, alle PCIe-Bus Bandbreiten-Engpässe mit zwei GeForce RTX 2080Ti SLI sind dank dem NVLink 2.0-Interface (bis zu 100GB/s) endlich ein Ding der Vergangenheit. Dabei war es egal ob SLI mit PCI Gen 2.0/3.0 oder 8/16 Lanes angebunden, ob G-Sync aktiviert war oder nicht... die Benchmark-Werte zeigten sich stets unbeeindruckt dessen! :)
Die PCI Bus-Last blieb jederzeit niedrig, ob 4K-, 5K- oder 8K-Auflösung zum Einsatz kam spielte dabei auch keine Rolle, NVLink verfügt also selbst für höhere Auflösungen über ausreichend Bandbreite!
Games wie DOOM (2016) (https://abload.de/img/doomidzexo.jpg) unter OpenGL erreichen immer noch weit über 100fps unter 5120x2880 Auflösung + Ultra-/Nightmare-Settings oder auch Shadow of the Tomb Raider (DX12) (https://abload.de/img/sottr-4k-dx12jrcvj.jpg) zeigt keine Scaling-Schwächen im MultiGPU-Modus mehr, selbst mit den Temporal AA-Modus sind stabile Frameraten unter 3840x2160 möglich! Auch dies war zuvor mit zwei TITAN X (Pascal) + HB-Bridge selbst bei 32 Lanes ein unüberwindbares Hindernis!
Weitere Problem-Games wie Hellblade: Senua's Sacrifice (https://abload.de/img/hellbladel4iad.jpg) (4K+TAA) , Final Fantasy XV (https://abload.de/img/ffxv-maxhhcoz.jpg) (4K+TAA) , The Witcher 3 (https://abload.de/img/hexervsd6b.jpg) (4K+AA) , Star Wars Battlefront II (https://abload.de/img/swbf29wiq2.jpg) (5K+TAA) , Crysis 3 (https://abload.de/img/screenshot0007ibcaa.jpg) (5K+TXAA) , Formula 1 2018 (https://abload.de/img/f1_2018_5k_max_t.aa_s27eqt.png) (5K/TAA) skalieren nun auch mit G-Sync + auf Intel Mainstream-CPU's mit "nur" 16 Lanes einwandfrei. :) Getestet wurde übrigens mit 2 verschiedenen G-Sync Monitoren (Acer XB321HK @ 3840x2160@60Hz + Acer XB271HU @ 2560x1440@144Hz) Auch einige der hier im Thread von mir geposteten SLI-Profile benötigen leichte Anpassungen, da die Möglichkeiten nun ganz andere sind.
https://abload.de/thumb/hellblade62fwx.jpg (https://abload.de/image.php?img=hellblade62fwx.jpg)https://abload.de/thumb/hexertwc7b.jpg (https://abload.de/image.php?img=hexertwc7b.jpg)https://abload.de/thumb/swbf22wc4s.jpg (https://abload.de/image.php?img=swbf22wc4s.jpg)https://abload.de/thumb/crysis3j8f8s.jpg (https://abload.de/image.php?img=crysis3j8f8s.jpg)https://abload.de/thumb/ffxv-maxhhcoz.jpg (https://abload.de/image.php?img=ffxv-maxhhcoz.jpg)https://abload.de/thumb/doomi6zd9q.jpg (https://abload.de/image.php?img=doomi6zd9q.jpg)https://abload.de/thumb/f1_2018_5k_max_t.aa_st7dxe.png (https://abload.de/image.php?img=f1_2018_5k_max_t.aa_st7dxe.png)https://abload.de/thumb/sottr-4k-dx12wtcwu.jpg (https://abload.de/image.php?img=sottr-4k-dx12wtcwu.jpg)

dargo
2018-10-25, 12:32:54
Niemand sagt, dass es auch 352W ASIC sind, was die Karte zieht (sie dürfte es, ja). Aber Boost gegen Boost wurde verglichen und max. Targets - keine Optimierungen wie UV - Pascal und Vega liefen halt mit Blower!
Ja, ist halt Extreme Streaming an - maxed out. Mit Mein Leben! sind es auch mit der maximierten Air + 150% PT 76 fps. Es würde mich also wundern, wenn du mit der optimierten LCE dort fast 50% Mehrleistung heraus holst - 8GB sind halt nicht mehr genug maxed out. :)

Achso... du verwendest das komplett sinnlose Streaming @Extrem nur um die 8GB zu sprengen. :tongue: Warum dann aber ohne HBCC? :)

Edgecrusher86
2018-10-25, 12:36:03
Achso... du verwendest das komplett sinnlose Streaming @Extrem nur um die 8GB zu sprengen. :tongue: Warum dann aber ohne HBCC? :)

Also aus meinen eigenen Tests dort im U-Boot, war es jetzt kein massiver Boost, den 12GB "VRAM" (also 8GB+4GB HBCC) gebracht hätte bei Extreme Streaming. Ja, ein paar fps mehr, aber keine 20 oder so.
Ist schon ne Weile her muss ich dazu sagen. Gut, und wenn man 2080 Ti gegen X(P) oder 1080 Ti vergleicht - darum ging es ja - und es maxed out halt auch flüssig rennt, kann man es auch so vergleichen. Zumindest wurde ja auch noch mit einem Preset gegen getestet, wo die RX ordentliche Leistung bringt. ;)

Nun kann ich ja auch leider gar kein 4K mehr testen mit meinem neuen Hauptmonitor - grrr....AMD könnte echt mal VSR für 21:9 bringen (5160x2160 wäre der DSR-Faktor 2,25x) - 3440 + 8xTrSSAA gab doch noch merkliches Alaising, als ich es durch gespielt hatte nach Wechsel des Monis.

@ dargo: Du kannst ja mal schnell mit HBCC + Extreme Streaming, sprich alles maxed out, einen Screenshot oben nachreichen - danke. :)



Naja, wir sollten langsam wieder zurück zum Thema kommen. Es ging mir nur darum, die Aussage zu widerlegen, dass man Pascal absichtlich ausgebremst hätte seitens id und Machine Games. :D

dargo
2018-10-25, 12:44:07
Also aus meinen eigenen Tests dort im U-Boot, war es jetzt kein massiver Boost, den 12GB HBCC gebracht hätte bei Extreme Streaming. Ja, ein paar fps mehr, aber keine 20 oder so.
Ist schon ne Weile her muss ich dazu sagen.

Hmm... dann hast du möglicherweise nicht das optimalste HBCC Setting gewählt. Da gibt es durchaus Unterschiede. Nach meinen letzten Untersuchungen damit in Wolf 2 war HBCC On (Streaming @extrem) nur 3% langsamer als HBCC Off (Streaming @Ultra) wenn die 8GB der Karte im ersten Fall nicht ausreichen. Ich kann es mir bei Gelegenheit anschauen wie es aktuell aussieht. Aber eigentlich sind die ganzen Spielereien eher sinnlos. Streaming @extrem hat keinen visuellen Vorteil.

vinacis_vivids
2018-10-25, 13:34:17
Wieso wird da auch die 2080Ti 11GB gegen Vega64 8GB verglichen? Gegner ist ja 2070/2080 oder eher 1080. Diese beiden bzw. drei mit 8GB ohne HBCC Fähigkeit strecken schon vorher die Glieder lang.

Edgecrusher86
2018-10-25, 13:35:46
Schau mal bitte auf den Thread-Titel. Es ging eher um Pascal vs. Turing; dementsprechend testet mal volles Rohr, weil die Leistung und VRAM vorhanden sind - die AMD war halt auch zur Hand und wie gesagt wurde ja auch noch ein Preset niedriger gesetzt, wo der VRAM dort auch ohne HBCC langt.
An die Big Pascal Leistung maxed out kommt man trotzdem nicht heran. Es ist halt so, dass auch Pascal enorm Leistung zulegte mit Vulkan 1.0.50. In Doom macht das z.B. in 4K Nightmare auf einer X(P) grob 20-30 fps Zuwachs aus. Hoch prügeln muss man eine Air auch nicht, ist einfach zu laut, ~ 1350-1400 MHz mit UV empfinde ich im Alltag als das maximal erträgliche bei ~ 1700-1800RPM. Umgebaut werden braucht die Karte auch nicht, da halt nur just for fun zum Vergleichen gekauft wurde. Dass V64 dann in den meisten Fällen doch eher der Gegner für GP104 und TU106 ist, will ja niemand bestreiten. Gut optimierte Titel ermöglichen flüssiges 4K60 Gameplay, wenn sie fordernd sind, bleibt ordentliche WQHD-Leistung über. Analog zu den Performance-NV-Modellen. Zumindest ein deutlich besseres P/L bleibt dann derweil doch über (V56 ab 400, V64 ab 450 Euro), gerade im Vergleich zu TU106 und TU104. Die 2070 wäre mit maximal 400 Euro und die 2080 mit maximal 600 Euro einigermaßen fair bepreist und im Grunde wäre auch 999€ inkl. MwSt. für eine 2080 Ti FE mehr als genug inkl. Marge. Naja, die derzeitigen Preise kann man halt (leider) verlangen, wenn man auf dem Benchmark-Thron sitzt - die Interessenten kaufen.

So, genug jetzt. Thema ist Turing.

vinacis_vivids
2018-10-25, 13:48:40
AMD wurde von dir schlecht/schwach getestet um Turing/Pascal noch besser dastehen zu lassen. Das ist doch ganz einfach. Fehler zugeben ist besser als unter dem Teppich kehren. *hint*

Edgecrusher86
2018-10-25, 13:53:52
Ändert halt trotzdem nichts daran, dass Turing hier um alles Kreise zieht in einem Titel, der modernste Techniken inkl. massiv Compute nutzt.
Zeig mir doch bitte, dass V64 mit HBCC on + maxed out in 4K, auch 91 fps an der Stelle liefert wie GP102 Cut, denn die Aussage V10=GP102 bei Wolfenstein wurde doch immer zum Besten gegeben. Die besagten 76 fps @ Mein Leben! sind immer noch grob die Hälfte vom dem, was der TU102 Cut @ Extreme abliefert.
Und die Situation ist halt die - derzeit beste AMD GPU gegen beste NV GPU. Ich wäre allerdings nicht abgeneigt, wenn AMD in Zukunft TU102 Performance zum geringeren Preis abliefern könnte - damit erstmal Schluss mit vierstelligen Preisen in dem Desktop-Segment ist (abseits TITANEN oder Frontier zumindest).
Allerdings ist es halt fraglich, ob man das in naher Zukunft schafft. Zumindest für TU106 oder TU104 Leistung sollte es ja langen 2019/2020. :)

E: TU102 (und auch V100) ist halt @ idTech6 @ Vulkan eine eigene Leistungsklasse - eine 2080 Ti OC etwa liefert in Wolfenstein II @ 5K Extreme halt um die 60-90 fps. Das ist halt ein Bereich, den AMD in 4K mit Mein Leben! Preset grob abdeckt mit ~ 60-70 fps. Sind mal eben + ~78% Auflösung. Natürlich auch zu einem Premium-Preis abgerufen.
Von der TITAN V rede ich lieber erst gar nicht - der Preis steht maximal nur im Verhältnis zur Leistung, wenn man damit auch Geld verdienen kann - mit AI Research oder Finanzberechnungen zum Beispiel. Nur zum Zocken ist es meiner Meinung nach extremst überteuert - anderen Leuten ist/war es das halt wert, die zu der Zeit mit Abstand schnellste Karte zu besitzen
(natürlich Wasser gekühlt, alles andere bremst sie nur zu sehr ein - 20%+ Leistung lässt man brach etwa).

Raff
2018-10-25, 14:05:47
V10 XTX = GP102 "LE" trifft auf Full HD zu (mit maximierten Details, wohlgemerkt): http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/2/#a22

Aber TU106-400A ist bereits schneller als die drei. :ugly:

MfG,
Raff

Edgecrusher86
2018-10-25, 14:07:32
Ok, aber das wäre mir zumindest nichts - also WQHD muss es dann bei einer Karte dieser Preisklasse schon sein, aber Jedem das Seine. Ja, da sieht es auch noch ordentlich aus. Grob 10%(+) Differenz für XTX und 20%(+) Differenz wenn man Ref Air (XT) gegen Ref Ti FE ("LE") testet.
Nichts desto trotz kann man auch nocht mit allen genannten Modellen ordentlich in 4K spielen, auch wenn das Leistungsgefüge um die Spitze entsprechend der GPU-Last deutlich weiter auseinander klafft.

Ich denke, es wurde alles gesagt, was es zu sagen gibt - man möge weiter über die beiden RTX Modelle diskutieren.

SKYNET
2018-10-25, 14:21:39
V10 XTX = GP102 "LE" trifft auf Full HD zu (mit maximierten Details, wohlgemerkt): http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/2/#a22

Aber TU106-400A ist bereits schneller als die drei. :ugly:

MfG,
Raff


man sieht schön wie bei UHD die luft raus ist bei den 8GB karten... :freak:

dargo
2018-10-25, 14:42:29
Zeig mir doch bitte, dass V64 mit HBCC on + maxed out in 4K, auch 91 fps an der Stelle liefert wie GP102 Cut, denn die Aussage V10=GP102 bei Wolfenstein wurde doch immer zum Besten gegeben.
Nun mal langsam.

1. Bezogen sich die Vergleiche auf die 1080TI und keine Titan für 1.3xx€.
2. 1080TI Referenz vs. V64 Referenz oder eben Custom vs. Custom, und kein Vergleich bei max. PT.

man sieht schön wie bei UHD die luft raus ist bei den 8GB karten... :freak:
Ja... wenn man sinnlose Settings setzt. :rolleyes:

Raff
2018-10-25, 14:53:08
Sinnlos ist übrigens auch, ständig Speicherkrüppel schönzureden. Dann kommen so Sachen raus:

GTX Titan X (2015): 12 GiByte
Titan X Pascal (2016): 12 GiByte
RTX 2080 Ti (2018): 11 GiByte

MfG,
Raff

Dural
2018-10-25, 15:04:10
Du unterschlägst die Titan V ;) Und wer weis, der TU102 kommt ja vielleicht auch noch in einer 12GB Version.

Mehr als 12GB werden wir dann mit 7nm sehen, und wie ich schon mehrfach gesagt habe, 22-24GB ist aktuell für Games völliger Overkill.

Ich kann die Entscheidung für 11-12GB durchaus Nachvollziehen.

Edgecrusher86
2018-10-25, 15:06:57
Boost zu Boost und je mit max. Targets - wieso sollte man das nicht testen dürfen? Da die Kühllösungen per Blower eh limitieren, ist es nur fair, die Targets hochzusetzen.
Die LCE ist halt mit den besten Customs gleich zu setzen. Ob jetzt X(P) (Ref Kühler) oder 1080 Ti FE getestet wird, macht den Kohl bezüglich fps nicht fett.
Die Aussage mit den 91 fps bezog sich eher auf die v_v Aussage, dass eben V10 GP102 Leistung im genannten Titel bringt. Eventuell würde es der Fall sein, wenn man die Karte auf 1800 MHz prügeln könnte. Ob der HBCC den VRAM (@ maxed out) quasi komplett aufwiegen würde, müsste man sehen.
Dann sollte man aber auch die NV zumindest mit 2000 MHz laufen lassen zusätzlich, um einen Vergleich OC gegen OC zu haben. Ich nehme mal an, dass deine Karte @ 15xx MHz lief bei 76 fps @ Mein Leben!.


PCGH hat dafür halt noch die Xp zusätzlich zur Ti verwendet. Alles innerhalb der Targets.
Natürlich hat eine LCE mit default BIOS (345W PT) und der Kühlung (60-70 Grad maximal) dort einen Vorteil - da braucht man nicht drum herum reden. Das hat NV nun gewissermaßen auch erkannt und Turing mehr Power und eine Kühlung spendiert, die default nicht limitert bei SGPU.
Dass in dem privaten Test inkl. 2080 Ti nun keine FE, sondern eine Custom Verwendung findet, hat auch mit der extrem miesen Verfügbarkeit zu tun. Nun ja, es kommt ja auch der Leistung zu Gute, wenn man eine etwas bessere Kühung und weitere 46W PT zur Verfügung hat. ;)

Ja, die Stagnation um 11-12GB seit 2015 ist nicht schön - damals noch OP (also theor. 8-10GB wären auch mehr als genug gewesen für Maxwell) , spätestens seit Pascal sinnvoll und im Grunde für die Rohleistung der 2080 Ti oder TV zu wenig. Hätte man wenigstens zum Beispiel 448-bit für die neue Ti verbaut, die Karte hätte zumindest 14GB @ 784 GB/s (14 Gbps).
Wenn man schon keine 16Gb Samsung Module verbaut. Wäre sicherlich von der Fläche her machbar gewesen, wenn RT/AI nicht in den Vordergrund gerückt worden wären. Stimmt wohl - 22GB wären auch wieder OP gewesen, auch für ein SLI - eventuell in seltenen Fällen in 8K von Vorteil - idR aber dann doch zuviel. :)

SKYNET
2018-10-25, 15:37:02
Ja... wenn man sinnlose Settings setzt. :rolleyes:

ich weiss nicht was an qualität sinnlos sein soll... kannst ja gerne mit PS2 tomb raider like grafik zocken, mir würden dabei die augen verbrennen... nix max(inkl. treiber) = nix gut aussieht, punkt :P

und wie raff schon sagte, probiere nicht 8gb krüppel schön zureden, 8gb ist sowas von 2015...

Edgecrusher86
2018-10-25, 15:46:45
Gut, man muss dazu sagen, dass der optische Unterschied maxed out und zum Beispiel im Ultra Preset oft (auch in WII) überschaubar ist - die Kosten an fps merkt man aber schon. Nun ja, wenn die Leistung und VRAM vorhanden ist, würde ich immer mit bestmöglicher Qualität flüssig spielen wollen - einschließlich zum Beispiel 16x HQ-AF im Treiber.
Der RX V64 16GB HBM2 zu spendieren, hätte die Verkaufspreise halt auch noch einmal locker um 200 USD erhöht und im Grunde wäre das bei der Rohleistung idR auch OP gewesen - kommt auch hinzu. Um CFX ist es ja leider auch nicht gut bestellt ohne Bridge, wenn ein Titel halt T.AA nutzt - Strange Brigade etwa nutzt SMAA @ Ultra AA zum Beispiel -> Skalierung CFX prima.
Leider spart halt auch NV wieder einmal beim VRAM - vor allem die 2080 wird schlecht altern - und das zu den Preisen....

SKYNET
2018-10-25, 15:51:40
Gut, man muss dazu sagen, dass der optische Unterschied maxed out und zum Beispiel im Ultra Preset oft (auch in WII) überschaubar ist - die Kosten an fps merkt man aber schon. Nun ja, wenn die Leistung und VRAM vorhanden ist, würde ich immer mit bestmöglicher Qualität flüssig spielen wollen - einschließlich zum Beispiel 16x HQ-AF im Treiber.


find halt kaum was schlimmer als wenn am "horizont" auf einmal gegenstännde aufpoppen wie auf dem schiessstand auf dem jahrmarkt... also auf max, damits grad unterbunden wird, auch AA immer max was geht, kann treppchen nicht leiden, ok, nen 4k monitor mit 24" könnte das wohl auch umgehen... aber dann brauchs trotzdem mehr speicher, und in FFXV ist in 1920*1200 mit den max settings schon ende im gelände mit ner an die zähne getakteten 1080Ti... 4k dürfte da wohl selbst mit ner 2080Ti zur dia orgie werden, ganz abgesehen vom speicher, der so schon über 10.5GB gefüllt ist in 1920*1200... :eek:

Edgecrusher86
2018-10-25, 15:56:40
Ja, für 4K brauchst schon Custom SLI, um bei FF XV immer gute fps zu haben - eine RTX 2080 Ti AiO OC mit 300W BIOS fällt da auch mal auf unter 50 fps ab -> ohne VXAO.

https://www.youtube.com/watch?v=cyFgJpj_b-0&t=233s

mit Custom SLI (glaube aber noch ohne VXAO):
https://abload.de/thumb/ffxv-maxhhcoz.jpg (https://abload.de/image.php?img=ffxv-maxhhcoz.jpg)

Ok, DLSS dürfte wohl einen prima Boost bringen, sodass man zumindest mit einer 2080 Ti OC immer bei um die 60 fps liegen dürfte - die optische Qualität in der Demo fand ich schon recht gut.

dargo
2018-10-25, 15:59:06
ich weiss nicht was an qualität sinnlos sein soll...
Du solltest dich vielleicht mal mit gewissen Grafikoptionen auseinander setzen anstatt ohne Hirn einfach alles in Games zu maxen. Oder einfach lesen was ich geschrieben habe. Streaming @Extreme in Wolf2 macht nichts anderes als einen größeren Speicherpool vorzuhalten ohne visuellen Vorteil.

Boost zu Boost und je mit max. Targets - wieso sollte man das nicht testen dürfen? Da die Kühllösungen per Blower eh limitieren, ist es nur fair, die Targets hochzusetzen.
Die LCE ist halt mit den besten Customs gleich zu setzen. Ob jetzt X(P) (Ref Kühler) oder 1080 Ti FE getestet wird, macht den Kohl bezüglich fps nicht fett.

Naja... bei der PCGH trennen die Titan und 1080TI bereits 10%. Wenn ich meine 79fps zu deinen 91fps nehme fehlen mir ~15%.

Ich nehme mal an, dass deine Karte @ 15xx MHz lief bei 76 fps @ Mein Leben!.
Ja... bei mir sind es 1,5Ghz.

Sinnlos ist übrigens auch, ständig Speicherkrüppel schönzureden.
Noch sehe ich nirgendwo, dass 8GB nicht für 1440p reichen. Man muss also auch nicht ständig nach mehr Vram schreien wenn der eh nicht limitiert. Zumal ich bei Vega eh noch die Option zu HBCC habe. Mal ganz davon ab... euren Wolf2 Test mit max. Settings verstehe ich bis heute nicht. Warum setzt man stümperhaft alles auf max.? Gerade ihr als Redaktion müsstet doch wissen, dass Streaming @extreme nichts bringt. Es sei denn man möchte natürlich als Redaktion die Hardwareverkäufe ankurbeln. :wink:

PS: MG hatte sich schon was dabei gedacht beim maximalen Preset in Wolf 2 das Streaming nicht @Extreme zu setzen.

dargo
2018-10-25, 16:06:27
doppelpost

TurricanM3
2018-10-25, 16:35:59
Die Speichergeschichte hab ich noch nie verstanden. Mir würden auch jetzt noch 8GB reichen. Ist sogesehen auch nicht schlimm für mich, dass wir da seit Jahren auf 12GB beschränkt werden. Als die erste Titan X mit 12GB rauskam hätte ich die auch mit 6GB gekauft.
Was ich mit gar 16 oder 24GB sollte, wüsste ich aktuell nicht.

SKYNET
2018-10-25, 16:54:01
Ja, für 4K brauchst schon Custom SLI, um bei FF XV immer gute fps zu haben - eine RTX 2080 Ti AiO OC mit 300W BIOS fällt da auch mal auf unter 50 fps ab -> ohne VXAO.

https://www.youtube.com/watch?v=cyFgJpj_b-0&t=233s

mit Custom SLI (glaube aber noch ohne VXAO):
https://abload.de/thumb/ffxv-maxhhcoz.jpg (https://abload.de/image.php?img=ffxv-maxhhcoz.jpg)

Ok, DLSS dürfte wohl einen prima Boost bringen, sodass man zumindest mit einer 2080 Ti OC immer bei um die 60 fps liegen dürfte - die optische Qualität in der Demo fand ich schon recht gut.

ich fand die artefakte eher scheisse in der demo... ausserdem fehlen zum teil kleine details bzw. sind falsch berechnet worden entsprechend sieht es anders aus als nativ, klar mag DLSS ein guter cheat sein um in 4k spielen zu können, aber ich habe games gerne so wie sie vom entwickler vorgesehen waren, optisch. :)

Edgecrusher86
2018-10-25, 18:33:55
Naja... bei der PCGH trennen die Titan und 1080TI bereits 10%. Wenn ich meine 79fps zu deinen 91fps nehme fehlen mir ~15%.


Ja... bei mir sind es 1,5Ghz.


Naja, wenn man bei der X(P) Mein Leben! setzt, sind es auch mehr fps als 91 an der Stelle. Aber gut, ob jetzt 15% Differenz oder etwas mehr, ist alles nicht die Welt. Vielleicht könnte Raff da auch mal bei Gelegenheit mit der Frontier @ Extreme gegen testen. ;)


ich fand die artefakte eher scheisse in der demo... ausserdem fehlen zum teil kleine details bzw. sind falsch berechnet worden entsprechend sieht es anders aus als nativ, klar mag DLSS ein guter cheat sein um in 4k spielen zu können, aber ich habe games gerne so wie sie vom entwickler vorgesehen waren, optisch. :)

Gut, es kommt natürlich auch hinzu, dass das ingame T.AA nicht das beste ist. Dadurch sehen einige Dinge dann mit DLSS schärfer aus. Gut, man könnte jetzt auch nen Injector oder Freestyle dafür verwenden...

dargo
2018-10-25, 18:47:54
Naja, wenn man bei der X(P) Mein Leben! setzt, sind es auch mehr fps als 91 an der Stelle.
Bis du dir da sicher? Eigentlich sollten die Frames gleich bleiben. Wie gesagt... mehr als größerer Speicherpool passiert da mit Streaming @Extreme nicht.

Edgecrusher86
2018-10-25, 19:02:38
Ich meine, es ist ein kleiner Unterschied in der Performance - kann ich mir bis spätestens morgen mal ansehen auf ner Ti hier. Müsste dann in den anderen PC wandern - da ist es installiert. Ich werde dann mal mit 5160x2160 gegen testen.

E: Hatte leichte Schwankungen bei der Stelle - nicht identischer Blickwinkel - nochmal hier bei einer härteren Stelle in NYC (i7-6700K @ 4,5 GHz, 16GB DDR4-3000, 1873/5508MHz, W10 v1709) nach dem Laden -> Über-Streaming inter. <-> Extreme-Streaming:


5160x2880 Mein Leben!+Ultra Streaming - 63 fps
https://abload.de/thumb/5160ultra9zcog.jpg (https://abload.de/image.php?img=5160ultra9zcog.jpg)

5160x2880 Mein Leben!+Über Streaming - 62 fps
https://abload.de/thumb/5160bermeef2.jpg (https://abload.de/image.php?img=5160bermeef2.jpg)


3440 Mein Leben!+Ultra Streaming - 110 fps
https://abload.de/thumb/3440ultrac1ip0.jpg (https://abload.de/image.php?img=3440ultrac1ip0.jpg)

3440 Mein Leben!+Über Streaming - 108 fps
https://abload.de/thumb/3440berdecoi.jpg (https://abload.de/image.php?img=3440berdecoi.jpg)

Ja, groß ist der Unterschied nicht - da die Szene auch nie 100% identisch ist (Himmel), liegt das quasi im Bereich der Messungenauigkeit.

E: Kann später nochmals die Szene in der Zentrale ansehen. 4K 16:9 custom raus konnte ich auch setzen. Insofern dann gleiche Auflösung.


E2: Damit nicht noch mehr OT, mach ich die W2 Diskussion hier rein:

Jetzt wo ich zu Hause bin habe ich mir auch deine Szene nochmal angeschaut.

max. Settings HBCC off
https://www2.pic-upload.de/thumb/36165757/2018.10.25-21.51.jpg (https://www.pic-upload.de/view-36165757/2018.10.25-21.51.jpg.html)

max. Settings HBCC on
https://www2.pic-upload.de/thumb/36165756/P1010860.jpg (https://www.pic-upload.de/view-36165756/P1010860.jpg.html)

Komischerweise bin ich bei HBCC off mit 64fps einiges höher als deine 52fps. Vielleicht wurde da was beim Treiber oder Vulkan in Bezug auf Speichermanagement optimiert. Bei HBCC on habe ich 12298MB gewählt. Da müsste man mal schauen welches Setting am performantesten ist. Da ich aber bisher kein HBCC gebraucht habe fehlen mir da noch paar Erfahrungswerte.

PS: HBCC on musste ich abfotografieren. Wenn ich mit ReLive bei HBCC on screenshote sehe ich nur 61fps im Screenshot obwohl es tatsächlich 75-76fps sind. Ganz wichtig bei HBCC... nach der Zuweisung resetet sich der Treiber. Danach unbedingt den Rechner neu starten ansonsten kriegt man weniger Frames. Ohne Neustart hatte ich 70fps in der Szene.

Ok, danke dafür - ja, es kommt schon auch immer etwas auf das gesamte Testsystem an - mit deinem Ryzen R5 und ~ 1500 MHz V64 LCE dürften es schon ein paar fps mehr gewesen sein als beim verwendeten Testsystem, wobei 12 schon arg viel Differenz ist in 4K ist.


Mit dem i7-6700K OC und der GTX 1080 Ti sieht das Ganze auch gut aus - einmal die fps mit ~ 1873 MHz in 4K @ 925mV bei grob 257-275W sowie 1721 MHz @ 812mV bei grob 185-220W @ 4K Mein Leben!+Ultra/Über (je nach Level) - die teilweise unterschiedlichen VRAM-Usages kommen daher, da das Spiel dann nach Umstellen per MSI AB im Curve Editor neu geladen wurde:

https://abload.de/thumb/evashammer-1873-925mv62e0u.jpg (https://abload.de/image.php?img=evashammer-1873-925mv62e0u.jpg)https://abload.de/thumb/hammer-1873-ultra3lf5m.gif (https://abload.de/image.php?img=hammer-1873-ultra3lf5m.gif)
4K+Mein Leben+Ultra (1873MHz) - 105 fps, ~ 257W (103% PT) - 925mV, 8289MB VRAM

https://abload.de/thumb/evashammer-3840-ber-1cecu3.jpg (https://abload.de/image.php?img=evashammer-3840-ber-1cecu3.jpg)https://abload.de/thumb/evashammer-1873mhz-92x8iiw.gif (https://abload.de/image.php?img=evashammer-1873mhz-92x8iiw.gif)
4K-Mein Leben!+Über (1873MHz) - 103 fps, ~ 275W (110% PT) - 925mV, 8316MB VRAM

https://abload.de/thumb/evashammer-3840x2160-lvdyn.jpg (https://abload.de/image.php?img=evashammer-3840x2160-lvdyn.jpg)https://abload.de/thumb/evashammer-3840x2160-w9f6l.gif (https://abload.de/image.php?img=evashammer-3840x2160-w9f6l.gif)
4K-Mein Leben!+Ultra (1721MHz) - 97 fps, ~ 214W (86% PT) - 812mV, 8316MB VRAM

https://abload.de/thumb/evashammer-3840x2160-gec24.jpg (https://abload.de/image.php?img=evashammer-3840x2160-gec24.jpg)https://abload.de/thumb/evashammer-1721mhz-815tflx.gif (https://abload.de/image.php?img=evashammer-1721mhz-815tflx.gif)
4K-Mein Leben!+Über (1721MHz) - 95 fps, ~207W (83% PT) - 812mV, 8761MB VRAM


In 3840x2160 (custom res. hier wegen 21:9 nativ) oder 5160x2160 (2,25x DSR -> 4K+ 21:9) sind es grob 1 fps, wenn man von Über auf Ultra wechselt. Bei 3440x1440 sind es jeweils grob 2 fps Differenz. Also quasi im Bereich der normalen Messschwankungen, da die Szenen auch nie 100% statisch sind.

ChaosTM
2018-10-25, 19:03:56
Ich hoffe immer noch auf eine Variante mit zumindest 16GB.
11 ist einfach nur ein Witz -
Für eine solche Karte wäre ich auch bereit den derzeitigen Preis zu zahlen. ;)

Cubitus
2018-10-25, 19:20:42
Für 3 und 4K sind 11 Gig noch ausreichend...
Das wird sich erst mit der nächsten Konsolen Gen ändern.

Die kommende Titan wird höchstwahrscheinlich 12 GB haben.

Die Frage ist auch, was willst mit soviel Speicher überhaupt spielen?
Und die Karte mit Resolution-Scale oder SGSSAA zu füllen ist eh witzlos..

ChaosTM
2018-10-25, 19:51:41
Momentan hauptsächlich Star Citizen und AC:O. Letzteres kommt auch mit 11 noch halbwegs aus (2160p). Star Citizen im Grunde auch aber mit bestimmten Einstellungen lässt sich da noch enorm viel herausholen. Shadow Maps auf 4gb zb. etc.
Und ja - nicht optimiert aber das ist mir egal. Ich will es schon jetzt mit maximal möglichen Details spielen.

crux2005
2018-10-25, 21:01:23
Kann es sein das der OC Scanner im MS Afterburner nur mit +800 MHz RAM testen kann? Habe +1000 MHz eingestellt aber er läuft beim Test nur mit 800. Wenn ich 800 einstelle dann im Test nur mit 600. Sehr komisch.

dargo
2018-10-25, 22:17:24
Ich meine, es ist ein kleiner Unterschied in der Performance - kann ich mir bis spätestens morgen mal ansehen auf ner Ti hier.

Jetzt wo ich zu Hause bin habe ich mir auch deine Szene nochmal angeschaut.

max. Settings HBCC off
https://www2.pic-upload.de/thumb/36165757/2018.10.25-21.51.jpg (https://www.pic-upload.de/view-36165757/2018.10.25-21.51.jpg.html)

max. Settings HBCC on
https://www2.pic-upload.de/thumb/36165756/P1010860.jpg (https://www.pic-upload.de/view-36165756/P1010860.jpg.html)

Komischerweise bin ich bei HBCC off mit 64fps einiges höher als deine 52fps. Vielleicht wurde da was beim Treiber oder Vulkan in Bezug auf Speichermanagement optimiert. Bei HBCC on habe ich 12298MB gewählt. Da müsste man mal schauen welches Setting am performantesten ist. Da ich aber bisher kein HBCC gebraucht habe fehlen mir da noch paar Erfahrungswerte.

PS: HBCC on musste ich abfotografieren. Wenn ich mit ReLive bei HBCC on screenshote sehe ich nur 61fps im Screenshot obwohl es tatsächlich 75-76fps sind. Ganz wichtig bei HBCC... nach der Zuweisung resetet sich der Treiber. Danach unbedingt den Rechner neu starten ansonsten kriegt man weniger Frames. Ohne Neustart hatte ich 70fps in der Szene.

basix
2018-10-25, 22:37:54
Kann es sein das der OC Scanner im MS Afterburner nur mit +800 MHz RAM testen kann? Habe +1000 MHz eingestellt aber er läuft beim Test nur mit 800. Wenn ich 800 einstelle dann im Test nur mit 600. Sehr komisch.

Das ist soweit ich gesehen habe normal. Bei mir wird mit 6800 MHz getestet bei Offset=0. Weiss nicht, ob das beabsichtigt ist, damit auch wirklich nur der Core Clock getestet wird und nicht die VRAM-Stabilität.

Blaire
2018-10-26, 01:36:56
Für 3 und 4K sind 11 Gig noch ausreichend...
Das wird sich erst mit der nächsten Konsolen Gen ändern.

Die kommende Titan wird höchstwahrscheinlich 12 GB haben.

Die Frage ist auch, was willst mit soviel Speicher überhaupt spielen?
Und die Karte mit Resolution-Scale oder SGSSAA zu füllen ist eh witzlos..

Ein Forza Horizon 4 mit SGSSAA sieht schon verdammt nice aus, um mal ein Beispiel zu nennen, Glättung ist besser als alles was Ingame angeboten wird, gut daß es noch solche Optionen gibt. :)

crux2005
2018-10-26, 01:37:38
Das ist soweit ich gesehen habe normal. Bei mir wird mit 6800 MHz getestet bei Offset=0. Weiss nicht, ob das beabsichtigt ist, damit auch wirklich nur der Core Clock getestet wird und nicht die VRAM-Stabilität.

Darüber habe ich mich gerade auch gewundert. Monitor wird Schwarz, RAM auf 6800 runter. Dachte schon das ist was abgestürtzt. :D

Womit am besten die RAM Stabilität testen?

basix
2018-10-26, 13:13:07
Dazu wohl ein Spiel oder einen Benchmark nehmen wie z.B. Superposition. Sobald der Disco-Effekt anfängt ist es zu hoch ;) Ein Tool gibt es dafür meines Wissens nach nicht.

Raff
2018-10-26, 13:17:37
WoW hat sich bei meinen letzten Tests als unerwartet RAM-tötend erwiesen. Einfach MSAA aufrotzen und die Renderskalierung auf 200 Prozent, dann stirbt alles. ;)

MfG,
Raff

gbm31
2018-10-26, 13:38:21
Dazu wohl ein Spiel oder einen Benchmark nehmen wie z.B. Superposition. Sobald der Disco-Effekt anfängt ist es zu hoch ;) Ein Tool gibt es dafür meines Wissens nach nicht.


Keine Fehlerkorrektur am Greifen vorher?

Das hiess es bei Pascals GDDR5 immer...

Dural
2018-10-26, 15:02:34
Die RTX 2070 Strix soll nur ein plus von 600MHz beim Speicher machen und tanzt somit komplett aus der reihe der 2070 Karten:

https://www.computerbase.de/2018-10/asus-geforce-rtx-2070-strix-test/


Der Speicher bei Turing scheint ein Rätsel zu sein :freak:

HisN
2018-10-26, 15:10:28
Keine Fehlerkorrektur am Greifen vorher?

Das hiess es bei Pascals GDDR5 immer...

Scheint bei Turing anders zu laufen.

Edgecrusher86
2018-10-26, 16:29:40
Jetzt wo ich zu Hause bin habe ich mir auch deine Szene nochmal angeschaut.

max. Settings HBCC off
https://www2.pic-upload.de/thumb/36165757/2018.10.25-21.51.jpg (https://www.pic-upload.de/view-36165757/2018.10.25-21.51.jpg.html)

max. Settings HBCC on
https://www2.pic-upload.de/thumb/36165756/P1010860.jpg (https://www.pic-upload.de/view-36165756/P1010860.jpg.html)

Komischerweise bin ich bei HBCC off mit 64fps einiges höher als deine 52fps. Vielleicht wurde da was beim Treiber oder Vulkan in Bezug auf Speichermanagement optimiert. Bei HBCC on habe ich 12298MB gewählt. Da müsste man mal schauen welches Setting am performantesten ist. Da ich aber bisher kein HBCC gebraucht habe fehlen mir da noch paar Erfahrungswerte.

PS: HBCC on musste ich abfotografieren. Wenn ich mit ReLive bei HBCC on screenshote sehe ich nur 61fps im Screenshot obwohl es tatsächlich 75-76fps sind. Ganz wichtig bei HBCC... nach der Zuweisung resetet sich der Treiber. Danach unbedingt den Rechner neu starten ansonsten kriegt man weniger Frames. Ohne Neustart hatte ich 70fps in der Szene.


Interessant. Ja, AMD Treiber und gewisse Settings wie Wattman und Co. mögen Restarts. Fragt sich, ob solche Dinge irgendwann mal behoben werden können. Sind ja dann auch immerhin 7% Leistungsunterschied mit HBCC on jeweils...
Vega mit/ohne HBCC (inkl. Restart) schaue ich mir dann hier am Skylake-System auch wieder an, wenn ich sie zur Hand habe, was derzeit nicht der Fall ist.


Weitere Werte mit dem kleinen 6700K System (4500/4500 MHz Core/Cache - 3000er RAM, v1709 - NV Treiber: HQ Filtering+16xAF):

Ist nicht ganz so einfach hier die gleiche Stelle zu treffen nach dem Laden - das Bild ist ja deutlich breiter hier mit Custom Resolution am UWQHD. Nun ja, hatte ein paar Screenshots gemacht - einen Meter ingame vor oder zurück macht jetzt nicht merklich was aus...

https://abload.de/thumb/1860-3840-ber-lncuq.jpg (https://abload.de/image.php?img=1860-3840-ber-lncuq.jpg)https://abload.de/thumb/hammer-1860-ber7odh0.gif (https://abload.de/image.php?img=hammer-1860-ber7odh0.gif)
4K maxed out - 1860MHz@925mV ~ 256W- 99 fps

https://abload.de/thumb/1721-3840-ber-sbifi.jpg (https://abload.de/image.php?img=1721-3840-ber-sbifi.jpg)https://abload.de/thumb/hammer-1721-bertac0i.gif (https://abload.de/image.php?img=hammer-1721-bertac0i.gif)
4K maxed out - 1721MHz@812mV ~ 207W- 94 fps


Andere Stelle:
https://abload.de/thumb/nyc-1873-925mv-ultradtcad.jpg (https://abload.de/image.php?img=nyc-1873-925mv-ultradtcad.jpg)https://abload.de/thumb/nyc-1873-ultra-925mvduf0j.gif (https://abload.de/image.php?img=nyc-1873-ultra-925mvduf0j.gif)
4K+Mein Leben!+Ultra (1873MHz) - 82 fps, ~ 252W (101% PT) - 925mV, 6493MB VRAM

https://abload.de/thumb/newyorkharbor-3840x21fyfmz.jpg (https://abload.de/image.php?img=newyorkharbor-3840x21fyfmz.jpg)https://abload.de/thumb/nyc-1873mhz-925mvfpear.gif (https://abload.de/image.php?img=nyc-1873mhz-925mvfpear.gif)
4K+Mein Leben!+Über (1873MHz) - 82 fps, ~ 257W (103% PT) - 925mV, 8289MB VRAM

https://abload.de/thumb/newyorkharbor-3840x21clc3d.jpg (https://abload.de/image.php?img=newyorkharbor-3840x21clc3d.jpg)https://abload.de/thumb/nyc_harbor-3840x2160-75c4x.gif (https://abload.de/image.php?img=nyc_harbor-3840x2160-75c4x.gif)
4K+Mein Leben!+Ultra (1721MHz) - 78 fps, ~ 200W (80% PT) - 812mV, 6838MB VRAM

https://abload.de/thumb/newyorkharbor-3840x21wmikc.jpg (https://abload.de/image.php?img=newyorkharbor-3840x21wmikc.jpg)https://abload.de/thumb/nyc-1721-ultra-812mvh8iry.gif (https://abload.de/image.php?img=nyc-1721-ultra-812mvh8iry.gif)
4K+Mein Leben!+Über (1721MHz) - 77 fps, ~ 198W (79% PT) - 812mV, 8297MB VRAM


Weitere Stelle - andere Seite des Tisches im U-Boot - sowie von gestern NYC in 5160 und 3440:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11834921&postcount=1776

In 3840x2160 (custom res. hier wegen 21:9 nativ) oder 5160x2160 (2,25x DSR -> 4K+ 21:9) sind es grob 1 fps, wenn man von Über auf Ultra wechselt. Bei 3440x1440 sind es jeweils grob 2 fps Differenz. Also quasi im Bereich der normalen Messschwankungen, da die Szenen auch nie 100% statisch sind.
Unterschiede bei der VRAM-Usage kommen auch daher, dass dann das Spiel beendet werden musste beim Wechseln des Streamings und UVs per MSI AB. Danach wurde er wieder ausgestellt, damit der RTSS nicht bremst. Die GPU-Z Screenshots entstanden beim kurzen Heraustabben, darum steht Idle - eine Momentaufnahme im Verbrauch natürlich ohne aber große Schwankungen.

E: Hatte die GPU-Skalierung @ Seitenverhältnis vergessen - daher 4K über Vollbild ausgegeben - macht aber nix an den fps. 16:9 und Balken wäre identisch gewesen - eben kurz verglichen gehabt.


E2: Hier nochmal ein Vergleich, was die Karte mit 75 und 64 fps an der Stelle so optimiert ziehen würde - analog zur optimierten 1500 MHz UV V64 LCE (HBCC on/off) von dargo - der Verbrauch spricht schon für sich. 75 fps sind mit P2 @ 1455/5508 MHz @ 681mV bei knapp 140W gesamt möglich - 64 fps mit P2 @ 1177/5006 MHz @ 681mV bei grob 120W gesamt:

https://abload.de/thumb/evashammer-4kber-1392vdiis.jpg (https://abload.de/image.php?img=evashammer-4kber-1392vdiis.jpg)https://abload.de/thumb/evashammer4kber-1392-fhev0.png (https://abload.de/image.php?img=evashammer4kber-1392-fhev0.png)

https://abload.de/image.php?img=evashammer-4kber-1177tmczm.jpg
https://abload.de/img/evashammer4kber-1177-ihc6w.png

Jeweils 4K+Mein Leben!+Über-(Extreme-) Streaming und 16xAF HQ-Filtering global im Treiber. Da maximal nur 15 Pics erlaubt sind, musste ich die letzten Werte so verlinken.
Der CPU-Takt ist hier zwar 18% höher als der des Ryzen R5, aber dieser hat ja dafür auch +50% mehr Threads, von der die Engine ja auch etwas Gebrauch machen sollte, denke ich. :)


Mit Turing dürfte es sich auch kaum etwas nehmen, ob nun Über/Extreme oder Ultra Streaming genutzt wird.

Cubitus
2018-10-27, 01:38:55
Abend zusammen.
Hatte gerade einen 1 stündigen Kontakt mit dem Nvidia Live-Support.

Heute stellte ich ein hochfrequentes Geräusch aus dem Gehäuse fest.
https://drive.google.com/file/d/14abj3xewR4d_DDbnRGR2TiInFc_4zrIV/view?usp=sharing
Nach dem Lüfterstopp wird das Geräusch deutlicher. Lüfter sind im Idle, bei 1500 RPM

Der Schuldige war schnell lokalisiert, und zwar ist es der linke Lüfter des Kühlers.
Der rechte Lüfter gibt kein so hochfrequentes Geräusch von sich.

Also betrieb ich erst etwas Recherche:

Es handelt sich beim FE-Fan um folgendes Modell:
https://obs.line-scdn.net/0hBL7jZlbHHWMKEzCy071iNDBFHgw5fw5gbiVMYEl9Q1d0cF1gMyJaDSkXEFEgI1o9ZCVQACgUBlIudF liZSFa/w644

Also wollte ich es noch genauer wissen, was sind das für Lüfter,
Schrott!? :freak:

https://abload.de/img/2018-10-2701_16_04-av6hf8t.png (https://abload.de/image.php?img=2018-10-2701_16_04-av6hf8t.png)
https://abload.de/img/2018-10-2701_27_06-avtec6g.png (https://abload.de/image.php?img=2018-10-2701_27_06-avtec6g.png)

Also lt Papier kann ich jetzt nicht sagen das die Lüfter der billigste Schrott sind, im Gegenteil scheint ein Premium Produkt bei AVC zu sein ;D
Laufzeit bei 40-Grad ca.. 8 Jahre.. Geht man von höheren Temps aus kann man nur schätzen wie lange die halten sollen..


Aber bei dem Preis erwarte ich absolute Perfektion und bin extrem pingelig und so ein Pfeifen darf es eben nicht geben!!
Also wandte ich wie mich wie erwähnt an den Support per Live-Chat, welcher auch sehr nett war.

Die Fragen was aufkamen ob ich übertaktet hatte (aktuell läuft die Karte ohne jegliche Übertaktung) Ich beantwortete die Frage mit ja und das ich das ich zum testen die Nvidia beworbene OC Scanner Funktion einsetzte.
Gut ich spielte jetzt auch schon viel und ich nutze ein ITX, die Lüfter haben teilweise schon gut zu tun, dass schrieb ich auch..

Ob die Fragen jetzt auf hartes OC abzielten oder einfach ob die Lüfter immer an der Kotzgrenze (max 3700 RPM) liefen, kann ich nicht ganz einordnen.

Jedenfalls geht die Karte jetzt in den RMA Prozess.
Ich hätte auch die Karte per 30 Tage Rückgabe zurück senden können, aber erstens ist das Assi und zweitens möchte ich auch dem Nvidia Support eine Chance geben.

Bin gespannt was raus kommt, ich halte euch auf dem Laufenden :)

Edit: Weiterhin wäre ein Zero-Fan Modus wünschenswert.

Adam D.
2018-10-27, 08:13:34
Edit: Weiterhin wäre ein Zero-Fan Modus wünschenswert.
Hieß es nicht, dass das ein Treiberproblem ist? Kann ja eigentlich keinen anderen Grund geben, die Hardware limitiert wohl kaum :confused:

basix
2018-10-27, 10:15:44
Auch wenn das viele anders sehen: Ich finde einen Zero Fan Modus unnütz. Anstatt 30-35°C im Idle ist die Karte dauerhaft in Richtung 50°C unterwegs. Bei Spannungswandlern etc. oftmals noch mehr. Auch die direkte Umgebung um die Karte herum wird dadurch erwärmt. Das ist bezüglich Lebensdauer kontraproduktiv. Faustregel bei Elektronik: Alle 10°C halbiert sich die Lebensdauer. Meine Lüfter laufen im Idle bei 850rpm und sind nicht aus dem System rauszuhören. Es muss oftmals nicht viel Luftzug sein. Ausserdem gehen Lüfter schneller kaputt, wenn sie öfters anlaufen anstatt konstant drehen.

Jeder so wie er mag, aber für mich ist Zero Fan ein NoGo. Auch wenn die Karte so einen Modus hat, übersteuere ich den mittels Afterburner Lüfterkurve.

Troyan
2018-10-27, 10:18:29
Die FE läuft jedoch mit rund 1400rpm. Das nervt. Lustigerweise ist die Karte beim Booten leiser...

TobiWahnKenobi
2018-10-27, 10:18:52
60W fürs nichtstun??

https://abload.de/thumb/60wattidleiyid1.jpg (https://abload.de/image.php?img=60wattidleiyid1.jpg)


btw,
ich fand den kühler der FE nicht sonderlich ansprechend (akustisch).


(..)

mfg
tobi

Cubitus
2018-10-27, 11:22:26
Hieß es nicht, dass das ein Treiberproblem ist? Kann ja eigentlich keinen anderen Grund geben, die Hardware limitiert wohl kaum :confused:

Doch man spricht von einem Bug, der zieht sich aber schon länger hin :freak:



Auch wenn das viele anders sehen: Ich finde einen Zero Fan Modus unnütz. Anstatt 30-35°C im Idle ist die Karte dauerhaft in Richtung 50°C unterwegs. Bei Spannungswandlern etc. oftmals noch mehr. Auch die direkte Umgebung um die Karte herum wird dadurch erwärmt. Das ist bezüglich Lebensdauer kontraproduktiv. Faustregel bei Elektronik: Alle 10°C halbiert sich die Lebensdauer. Meine Lüfter laufen im Idle bei 850rpm und sind nicht aus dem System rauszuhören. Es muss oftmals nicht viel Luftzug sein. Ausserdem gehen Lüfter schneller kaputt, wenn sie öfters anlaufen anstatt konstant drehen.

Jeder so wie er mag, aber für mich ist Zero Fan ein NoGo. Auch wenn die Karte so einen Modus hat, übersteuere ich den mittels Afterburner Lüfterkurve.
Meine zwei EVGA Karten davor hatten diesen auch, und keine Karte machte schlapp, vermutlich schlägt Zero-Fan aber schon auf die Lebensdauer

Wie Troyan aber bereits sagte, selbst beim Booten ist die Karte leiser. Mir würden auch unter 1000 RPM reichen.

basix
2018-10-27, 11:34:23
Kannst du nicht selbst eine Lüfterkurve erstellen? Zu lauter Idle-Zustand hat mich noch nie daran gehindert. Die 850rpm sind bei mir auch mitCustom Kurve und Peak 950rpm beim spielen. Oder kann man be der FE nicht tiefer einstellen?

Und tum kaputtgehen: Wenn ich akustisch keinen Nachteil habe sehe ich eben keinen Grund den Lüfter abzustellen, da oben genannte Nachteile.

Cubitus
2018-10-27, 11:58:14
Kannst du nicht selbst eine Lüfterkurve erstellen? Zu lauter Idle-Zustand hat mich noch nie daran gehindert. Die 850rpm sind bei mir auch mitCustom Kurve und Peak 950rpm beim spielen. Oder kann man be der FE nicht tiefer einstellen?

Und tum kaputtgehen: Wenn ich akustisch keinen Nachteil habe sehe ich eben keinen Grund den Lüfter abzustellen, da oben genannte Nachteile.

Du kommst bei der FE leider nicht unter die 1500 RPM ;(

Geächteter
2018-10-27, 12:49:08
Die FE läuft jedoch mit rund 1400rpm. Das nervt. Lustigerweise ist die Karte beim Booten leiser...
Die dreht halt deutlich langsamer ohne Treiber, ist bei meiner Blower 2080 auch so, da kann man dem Fan beim Drehen zugucken. Temperaturmäßig geht das sogar mit dem Blower, wird sie halt irgendwann um die 40 statt 28 °C. Aber höchstwahrscheinlich ist technisch keine Abstufung zwischen ohne Treiber und mit Treiber möglich und nvidia traut sich den "Low-Noise-Mode" wegen Temps bei ungünstigen Randbedingungen nicht zu. Man musss auch ehrlich sein, nvidia hat in den letzten Jahren auch masiv abgebaut, was Qualität, Funktionalität und Kompetenz angeht. In 1. Linie ist das nur noch ein Shareholder-Pleaser mit ner aufgedrehten schwarzen Lederjacke als Frontmann.

Edgecrusher86
2018-10-27, 12:56:15
60W fürs nichtstun??


Hängen mehrere Monis dran? Also wenn G-SYNC on jeweils, sollte es herunter takten in den P8.
Sieht in dem Fall doch ganz gut aus:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11831752#post11831752

basix
2018-10-27, 13:23:32
Also bei mir ist es mit Single Monitor im Idle <10W laut NV Inspector und 5-7% laut Afterburner, also ca. 15W für die gesamte Karte. Das deckt sich in etwa auch mit den Reviews.

TobiWahnKenobi
2018-10-27, 13:30:14
hängen dran ja, sind aber alle bis auf einen offlein.

schade, fand die karte eigentlich gelungen. meine erste seit jahren, die unter
wasser nicht quietscht und singt. glaube, ich verkloppe die auch weiter.


(..)

mfg
tobi

Edgecrusher86
2018-10-27, 13:55:51
Soweit ich das in Erinnerung habe, meinte Cubitus, dass es hier auch einen Unterschied im Verbrauch macht, wenn sie angeschlossen sind, aber nicht genuzt werden.

Per Inspector und -showFermiClocks im Ziel der Verknüpfung kann man ja auch noch weitere Clockstates auslesen - gut möglich, dass es hier Unterschiede bei einigen Karten im BIOS gibt, wenn mehrere non G-SYNC Monitore angestöpselt werden:

https://img.techpowerup.org/181027/nvidia-20181027-135958.png

(7) zum Beispiel ist der Display-Clock.

Da könnte man ja hier zum Beispiel zusammen tragen, ob es vielleicht Differenzen bzgl. MM mit unterschiedlichen Karten gibt. Den Inspector MDSP kann man natürlich auch nutzen, allerdings kommt es dann wohl öfters zum Flackern bei Lastwechsel.
Ich meine, so um die 30W mit 2x non G-SYNC Displays war es für eine 2080 Ti FE, was Cubitus angegeben hatte.


GDDR6+HBM2 Support sowie mehr Mem-Offset für GDDR6 gibt es btw. in der aktuellen Beta:
http://www.download.orbmu2k.de/files/nviBeta.zip

Fanspeed-Monitoring und Control für TU kommen dann später wohl hinzu, wenn der Maestro selber eine 2080 Ti bekommt - was noch dauern wird. Da ist wohl einiges geändert worden im Vergleich zu Pascal. ;)

E: Ich habe zwar nur einen 34er dran, aber mit DSR und HW-Beschl. (Browser schnell hin und her ziehen), kommt man auch mit Pascal bis zum P0-State hoch. Wenn man dann damit aufhört, sind es wieder 139MHz im P8. :)

E2: Gibt auch einen neuen Hotfix-Treiber 416.64:
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=591460

This is GeForce Hot Fix driver version 416.64 that addresses the following:

• Far Cry 5: Flicker during gameplay
• Monster Hunter World: Corruption is seen when Volume Rendering Quality is set to highest
• The Witcher 3 Wild Hunt: Flicker during gameplay
• Shadow of the Tomb Raider: Improves game stability
• When audio playback is paused, audio receiver switches from multi-channel to stereo. Increased period from 5 seconds to 10 seconds.

basix
2018-10-27, 15:44:22
Ich frage mich gerade, wie der FFXV Score der 2080 Ti zustande kam, welcher in der Benchmark-Datenbank unter 4k High eingetragen ist. 6050 Punkte?! Ich komme mit max. OC und Lüfter voll auf gerade mal auf 6202 Punkte :freak:

TobiWahnKenobi
2018-10-27, 19:49:36
hmm, strange.. jetzt sind's noch 27W

https://abload.de/img/27wattidlei2dje.jpg

dabei war ich nichtmal zuhause, um irgendwas dran rumzupfuschen.. ergo: ein neustart hats gerichtet.


edit:

jetzt sind's noch 20W

https://abload.de/img/20wattidlex6c12.jpg


temperatur-related oder geht die anzeige nach'm mond??



(..)

mfg
tobi

Deisi
2018-10-28, 10:02:51
Ein Forza Horizon 4 mit SGSSAA sieht schon verdammt nice aus, um mal ein Beispiel zu nennen, Glättung ist besser als alles was Ingame angeboten wird, gut daß es noch solche Optionen gibt. :)

Wie stell ich das ein? Wie früher über den inspector?

Edgecrusher86
2018-10-28, 11:31:42
Ja, per Inspector. ;)

dildo4u
2018-10-29, 08:55:39
AMD Radeon ProRender: GPU, Multi-GPU & CPU+GPU Rendering Performance

Benches mit Pascal/Turing/Vega etc.

https://techgage.com/article/amd-radeon-prorender-performance-oct-2018/

crux2005
2018-10-29, 20:34:59
Der Micron GDDR6 Speicher ist eine Krücke.

Dazu wohl ein Spiel oder einen Benchmark nehmen wie z.B. Superposition. Sobald der Disco-Effekt anfängt ist es zu hoch ;) Ein Tool gibt es dafür meines Wissens nach nicht.

Superposition ging mit +800 MHz beim RAM ohne Fehler/Artefakte durch. CoD WW2 im Ground War: War Mode nach paar Minuten dxgi_error_device_hung. :frown:

WoW hat sich bei meinen letzten Tests als unerwartet RAM-tötend erwiesen. Einfach MSAA aufrotzen und die Renderskalierung auf 200 Prozent, dann stirbt alles. ;)

MfG,
Raff

Habe ich leider nicht. Ersatzweise Battlefront II und Forza Motorsport 7 mit +200% Resolution und max (T)AA probiert. Gab keine Probleme. Nur CoD WW2 beendet sich mit Fehlermeldung.

Keine Fehlerkorrektur am Greifen vorher?

Das hiess es bei Pascals GDDR5 immer...

Irgendwie schon. Blck Ops 4, Battlefront II, Forza Horizon 4 und Motorsport 7 machten alle keine Probleme mit +800 MHz RAM.

gbm31
2018-10-30, 00:41:20
Irgendwie schon. Blck Ops 4, Battlefront II, Forza Horizon 4 und Motorsport 7 machten alle keine Probleme mit +800 MHz RAM.

Dann müsste sich das doch mit sinkendem Zugewinn pro Takt vorher bemerkbar machen, oder?

crux2005
2018-10-30, 02:41:32
Dann müsste sich das doch mit sinkendem Zugewinn pro Takt vorher bemerkbar machen, oder?

Ist schwer bei den MP Spielen. Und habe auch keine Lust dazu. Wenn die FPS hoch und Stabil sind bin ich zufrieden.

Werde die RTX 2080 aber zurückgeben. Die 8 GiB VRAM sind mir jetzt schon zu wenig. :frown:

Raff
2018-10-30, 10:52:04
Geforce RTX 2080 entfesselt: Spar-Karte wird per BIOS-Mod zum Top-Sprinter (http://www.pcgameshardware.de/Geforce-RTX-2080-Grafikkarte-267863/Specials/Nvidia-BIOS-Mod-Powerlimit-erhoehen-1268042/)

A-GPU auf Non-A-Design gesichtet und direkt gemoddet. :naughty:

MfG,
Raff

Fragman
2018-10-30, 10:55:47
Werde die RTX 2080 aber zurückgeben. Die 8 GiB VRAM sind mir jetzt schon zu wenig. :frown:

Diese Mentalität kann ich nicht nach vollziehen.
Die Karte gekauft, ein bisschen mit rum gespielt und wieder zurück sckicken, weil die, von Anfang an bekannte, Rammenge zu niedrig ist?
Und was soll der Händler jetzt damit machen? :freak:

Dural
2018-10-30, 10:57:16
Neu Verpacken und dem nächsten Kunden zu senden, was den sonst? ;)

Geforce RTX 2080 entfesselt: Spar-Karte wird per BIOS-Mod zum Top-Sprinter (http://www.pcgameshardware.de/Geforce-RTX-2080-Grafikkarte-267863/Specials/Nvidia-BIOS-Mod-Powerlimit-erhoehen-1268042/)

A-GPU auf Non-A-Design gesichtet und direkt gemoddet. :naughty:

MfG,
Raff

Langsam wird es echt lächerlich mit den ganzen A-Chips Theater, vor allem die Chips offensichtlich einzig durch das höhere PT unterschieden werden.

crux2005
2018-10-30, 14:36:29
Diese Mentalität kann ich nicht nach vollziehen.
Die Karte gekauft, ein bisschen mit rum gespielt und wieder zurück sckicken, weil die, von Anfang an bekannte, Rammenge zu niedrig ist?
Und was soll der Händler jetzt damit machen? :freak:

Du kannst dich gerne bei der EU beschweren. ;)

Geächteter
2018-10-30, 14:46:48
Neu Verpacken und dem nächsten Kunden zu senden, was den sonst? ;)
Langsam wird es echt lächerlich mit den ganzen A-Chips Theater, vor allem die Chips offensichtlich einzig durch das höhere PT unterschieden werden.
Vor allem, wo bei TDP schon von mehr als 150 Watt stetig das Dauer-Zirpen steigt. Bei 215 Watt zirpt meine Zotac-Karte trotz 60-fps-cap so laut, dass es erst ab Radiallüfterumdrehung von 1800 U/min langsam übertönt wird. Es ist zwar kein hochfrequentes Zirpen und ziemlich breitbandig, aber von sehr kräftiger Amplitude. Insgesamt ist bleibt und Turing einfach lächerlich, jedenfalls zum ausgerufenen Preis. Mein Non-A-Chip lässt sich aber mit Offset von 180 Mhz über die gesamte Kurve relativ gut übertakten.

gbm31
2018-10-30, 14:48:10
Geforce RTX 2080 entfesselt: Spar-Karte wird per BIOS-Mod zum Top-Sprinter (http://www.pcgameshardware.de/Geforce-RTX-2080-Grafikkarte-267863/Specials/Nvidia-BIOS-Mod-Powerlimit-erhoehen-1268042/)

A-GPU auf Non-A-Design gesichtet und direkt gemoddet. :naughty:

MfG,
Raff


Na toll - das wird eine hübsche Welle an Rücksendungen auslösen, da jeder kauft testet und zurückschickt bis er eine A-GPU hat. :rolleyes:

DrumDub
2018-10-30, 15:56:21
Nvidia GeForce RTX 2080 Ti: Berichte über Ausfälle häufen sich (heise.de) (https://www.heise.de/newsticker/meldung/Nvidia-GeForce-RTX-2080-Ti-Berichte-ueber-Ausfaelle-haeufen-sich-4207263.html)

Troyan
2018-10-30, 16:09:37
Lmao, Heise und wieder Fake-News.

Wie man auf die Idee käme, auf das Herstellerforum zuverweisen und daraus eine News zu erstellen, ist schon dreist. Aber hey, wer keinen Ruf mehr hat, der kann ungeniert Fake-News verbreiten.

Habe zwei TIs hier. Keine Probleme. Ob Heise jetzt eine News macht, dass die Produkte komplett fehlerfrei sind? Bestimmt nicht.

DrumDub
2018-10-30, 16:15:47
Nvidias Founder's Editions gehen offenbar reihenweise kaputt (golem.de) (https://www.golem.de/news/turing-grafikkarten-nvidias-founder-s-editions-gehen-offenbar-reihenweise-kaputt-1810-137404.html)

In den Nvidia-Foren häufen sich die Klagen über Geforce RTX 2080 Ti und Geforce RTX 2080, die nach kurzer Zeit einen Defekt aufweisen. Die Turing-Grafikkarten zeigen demnach Bildfehler oder stürzen mit Bluescreens ab.

Troyan
2018-10-30, 16:18:31
Ja, ich weiß. Es wird aus dem Herstellerforum eine News gebastelt. Das dort zu 99% die Leute schreiben, wenn sie Probleme haben, wird komplett ignoriert.

Absolut lächerlich. Eigentlich perfekt für den Journalistenthread hier.

Dural
2018-10-30, 16:19:10
Fake News würde ich das nicht gerade nenne, aber man versucht halt etwas Klicks zu generieren.

So eine News könnte man praktisch von jeglicher Hardware machen, man findet immer was im Netz.

Mal schauen wie sich das mit der 2080ti Entwickelt.

Menace
2018-10-30, 17:46:21
Habe zwei TIs hier. Keine Probleme. Ob Heise jetzt eine News macht, dass die Produkte komplett fehlerfrei sind? Bestimmt nicht.

Die Mehrzahl von Anekdoten sind noch immer keine Daten. :rolleyes: Weder bei Dir (2 Ti) noch im Herstellerforum (2+x Ti). Dass Deine ordentlich laufen ist leider auch kein Beweis. Falls die Rückläufer Angaben von Mindfactory stimmen, dann hat die meistverkaufe Ti (40 Stück) eine Quote von 4%. Das halte ich ich bei den ganzen Spielkindern doch für einen sehr guten Schnitt.

Linmoum
2018-10-30, 18:12:12
Auch ein deutscher Systemintegrator gab gegenüber ComputerBase zu Protokoll, dass die Modelle aller Hersteller eine RMA-Quote zeigen, die „deutlich höher als normal“ sei, auch wenn sie bei den meisten Modellen noch unter zehn Prozent liegt.

https://www.computerbase.de/2018-10/nvidia-berichte-ausfaellen-geforce-rtx-2080-ti/

Fake news!!1einself

Troyan
2018-10-30, 18:17:53
Hoffentlich nicht der selbe, der die Spy-Chip Story an Bloomberg weitergegeben hat. Ha.

vinacis_vivids
2018-10-30, 18:38:23
Bei der 2080ti zeigt sich die Anfälligkeit von GDDR gegenüber HBM Speicher.

Troyan
2018-10-30, 18:42:19
Stimmt, deswegen fallen die Vega-Karten auch nicht aus und die ganzen Bewertungen von Mindfactory sind gelogen: https://www.mindfactory.de/product_info.php/tab/reviews/8GB-Gigabyte-Radeon-RX-Vega-64-Gaming-OC-Aktiv-PCIe-3-0-x16_1229293.html#tBewertungen

Na dann. Nichts zu sehen hier. Keine News-Wert. Wollen es uns ja nicht mit AMD verschwerzen.

MartinRiggs
2018-10-30, 18:42:30
:facepalm:
Wie kommt man nur auf so ein schmales Brett?
Auf der 1080 war GDDR5x auch nagelneu und da gab es kaum Ausfälle.

Mal beobachten ob es wirklich eine erhöhte RMA-Quote dauerhaft gibt.

Linmoum
2018-10-30, 18:46:45
Stimmt, deswegen fallen die Vega-Karten auch nicht aus und die ganzen Bewertungen von Mindfactory sind gelogen: https://www.mindfactory.de/product_info.php/tab/reviews/8GB-Gigabyte-Radeon-RX-Vega-64-Gaming-OC-Aktiv-PCIe-3-0-x16_1229293.html#tBewertungen

Na dann. Nichts zu sehen hier. Keine News-Wert. Wollen es uns ja nicht mit AMD verschwerzen.
Du verlinkst jetzt ernsthaft EIN EINZIGES Modell. Weltklasse, ich fall vom Stuhl. ;D ;D

GSXR-1000
2018-10-30, 18:50:30
Du verlinkst jetzt ernsthaft EIN EINZIGES Modell. Weltklasse, ich fall vom Stuhl. ;D ;D

Bitte, ignoriert diesen offensichtlichen von nv finanzierten jubelperser doch bitte einfach. Niemand kann doch wirklich annehmen das er ernst meint was er schreibt.

Er rallt ja nicht mal das die berichte nicht nur von heise kommen. Aber golem ist ja auch von AMD gekauft und computerbase ja ohnehin seit jahrzehnten als amd hauspresse bekannt.
Unfassbar der typ.

Troyan
2018-10-30, 18:57:39
Du verlinkst jetzt ernsthaft EIN EINZIGES Modell. Weltklasse, ich fall vom Stuhl. ;D ;D

Hm, Unterschied zu dem einen Modell bei der RTX2080TI? Oh wait - keiner.

Ich mache exakt das, was Martin Fischer von Heise macht. Zeigt eben, wie absurd solche "News" sind. Aber man sieht ja, wie Trolle es anders behandeln.

SKYNET
2018-10-30, 19:51:38
Stimmt, deswegen fallen die Vega-Karten auch nicht aus und die ganzen Bewertungen von Mindfactory sind gelogen: https://www.mindfactory.de/product_info.php/tab/reviews/8GB-Gigabyte-Radeon-RX-Vega-64-Gaming-OC-Aktiv-PCIe-3-0-x16_1229293.html#tBewertungen

Na dann. Nichts zu sehen hier. Keine News-Wert. Wollen es uns ja nicht mit AMD verschwerzen.

was ja an dem boardpartner liegt und nicht am chip hersteller... also komm nochmal wieder wenn du dein fanboygift versprüht hast :tongue:

Menace
2018-10-30, 19:54:01
Hm, Unterschied zu dem einen Modell bei der RTX2080TI? Oh wait - keiner.

Ich mache exakt das, was Martin Fischer von Heise macht. Zeigt eben, wie absurd solche "News" sind. Aber man sieht ja, wie Trolle es anders behandeln.

Mindfactory:
5% = RMA-Quote von Gigabyte Vega OC
4% = RMA-Quote von einziger nennenswert verkaufen 2080 Ti (40 Stück)
5% = RMA-Quote von Powercolor Vega RD
2% = RMA-Quote von Sapphire Radeon RX Vega 64 Nitro+

2% = RMA-Quote der meist verkauften Vega 56

Also ich weiß ja nicht, wie man daraus jetzt überhaupt etwas zum Speicher ableiten kann. :confused: Zumal die verkauften Einheiten zwischen Ti und Vega absolut nicht vergleichbar sind. Noch kann man auf Grund der Zeit jetzt schon etwas sagen. Doch, vielleicht, dass man um Gigabyte Vega und Powercolor Vega 64 vielleicht einen Bogen machen sollte.

Linmoum
2018-10-30, 20:15:29
Hm, Unterschied zu dem einen Modell bei der RTX2080TI? Oh wait - keiner.

Ich mache exakt das, was Martin Fischer von Heise macht. Zeigt eben, wie absurd solche "News" sind. Aber man sieht ja, wie Trolle es anders behandeln.
Die Meldungen beziehen sich dabei nicht nur auf die Founders Edition von Nvidia, sondern auch Partnerkarten. Auch ein deutscher Systemintegrator gab gegenüber ComputerBase zu Protokoll, dass die Modelle aller Hersteller eine RMA-Quote zeigen, die „deutlich höher als normal“ sei, auch wenn sie bei den meisten Modellen noch unter zehn Prozent liegt.
https://www.computerbase.de/2018-10/nvidia-berichte-ausfaellen-geforce-rtx-2080-ti/

Stimmt, ein einziges Modell der 2080Ti. Mach dich einfach mal weiter lächerlich, scheint ja nicht anders zu funktionieren. Der amüsante Versuch, jetzt noch auf AMD zu verweisen, zeigt eigentlich nur mal wieder, dass Leseverständnis bei dir gegen Null geht. Wobei bewusste Trollyanerei näher liegt.

Troyan
2018-10-30, 20:20:57
Klar, auch Partnerkarten. Hier mal die Bewertungen von Alternate: https://www.alternate.de/html/product/listing.html?articleId=1476993%2C1477004%2C1477005%2C1477008%2C1477015%2C1477016 %2C1477025%2C1477032%2C1477033&listingTitle=Die+neuen+Nvidia+RTX+2080Ti+Grafikkarten+sind+da!&lk=8403&lv=gallery#listingResult

Ohne vernünftige Quelle kann man jeden Rotz im Internet veröffentlichen. Da du Computerbase hier so tatkräftig zitierst, kannst hoffentlich die Zahlen hier nennen.

Menace
2018-10-30, 20:27:08
@Troyan: Jetzt wollen wir einmal die Aufgaben der Journalisten nicht verdrehen. Ihr Aufgabe ist noch immer Kritik zu äußern, falls Gründe (siehe Forenbeiträge bei nvidia, RMA-Quote) dafür sprechen. Und sie sollten dann auch ihre Kritik so formulieren, dass sie angemessen ist (machen die meisten, weil sie sich sehr vage äußern). Was sie nicht machen sollten ist alle 5 Minuten "FAKE-News!!11" reflexionsfrei rauszutrompeten. Dafür gibt es ja dann Forenmember.

Troyan
2018-10-30, 20:33:42
Ich denke, du hast Journalismus nicht verstanden. Heise und Co. haben nichts bewiesen, sondern schreiben aus den Erfahrungen aus dem Support-Forum. Daraus wird nun etwas abgeleitet, was weder qualitativ noch quantitativ bewiesen ist.

Gleichzeitig hat weder Heise noch ein anderer bei nVidia nachgefragt. Es wird auch hier nur aus dem Supportforum zitiert.

Sorry, aber das ist einfach nur Clickbaiting und Fake-News.

Ravenhearth
2018-10-30, 20:38:36
In response to a request for comment, Nvidia told Digital Trends that it was, “working with users individually but we are not seeing any broader issues.”
https://www.digitaltrends.com/computing/nvidia-rtx-2080-ti-graphics-cards-dying/amp/

Troyan
2018-10-30, 20:43:46
Forbes hat auch nachgefragt und hat exakt das selbe erhalten. Oh, ich sehe gerade, dass Heise auch nachgefragt hat. Aber die "News" muss man dann trotz Verneinung veröffentlichen. Lmao.

Menace
2018-10-30, 20:52:21
Sorry, aber das ist einfach nur Clickbaiting und Fake-News.

Oh Gott, wie ich das herumwerfen des Begriffs "Fake-News" hasse. :rolleyes:

1. Natürlich kann man Auffälligkeiten von Beschwerden der Öffentlichkeit mitteilen (Quelle bitte angeben);
2. Natürlich sollte man dann bei nVidia nachfragen (Antworten sind meistens, wenn man zwischen den Zeilen liest aufschlussreich) und deren Aussagen veröffentlichen - damit ist man schon auf der sicheren Seite;
3. Natürlich sollte man dann auch nachfragen, wie hoch die Rückläuferquote ist (wurde auch in einem Fall gemacht).

Daraus kann man eine vorsichtige Hypothese formulieren (wurde gemacht), aber bitte vor Verurteilung in diesem Stadium absehen (das wurde auch gemacht).

Dein blödes "Fake-News"-Geschreibe trifft da leider mal wieder nicht zu, da die Journalisten diese Thesen bewusst vorsichtig und möglichst neutral formulieren; es sind somit keine "Falschinformationen". Ich finde sogar, dass sie weit verantwortlicher vorgehen, als Du mit deiner nicht gerade repräsentativ aufbereiteten Auswahl der Vega-RMA-Quote. :wink:

Edit: Naja, den Wahrheitsgehalt von nvidia.... Wie hieß noch das Ding, was es nie gab; die Hersteller dann eigene Brands sich ausdenken mussten und es dann wieder von nVidia zurückgezogen wurde, obwohl es das ja gar nicht gab?

Troyan
2018-10-30, 21:05:38
Mein letztes Postings dazu, da es sowieso sinnlos ist mit AMD Trollen wie dir zu diskutieren:
Heise hat keine eigenen Erfahrungen gemacht und sie haben auch keine objektiven Zahlen. Sie zitieren aus dem offiziellen Supportforum, wo sich zu 105% die Leute auskotzen. Daraus wird nun eine News abgeleitet, die einzig zum Haten dient. Ist nicht verwunderlich, da wir wissen, dass Heise jede Objektivität in Richtung nVidia längst aufgegeben hat.

Auch nach der Verneinung von allgemeinen Problemen hat Heise trotzdem die News veröffentlicht. Hier wird jeder journalistische Maßstab ad absurdum geführt.

GSXR-1000
2018-10-30, 21:24:59
Vielleicht sollte man sich zusaetzlich mal klar machen: Wir reden hier von HW deutlich jenseits der 1.000, 1.200 EUR Marke... kann, darf und MUSS man da nicht eine DEUTLICH höhere Qualitätssicherung und -standard erwarten (und damit eine DEUTLICH niedrigere RMA Quote)? Mal ehrlich? Wir reden von absoluter Luxus Hardware. Und natuerlich erwarte ich bei einem Porsche deutlich bessere Verarbeitung und Gesamtqualität (und auch Qualitätssicherung) als bei einem Dacia.
Tu doch bitte nicht als seist du dermassen blind lieber Troyan.

Cubitus
2018-10-30, 21:28:04
Vielleicht sollte man sich zusaetzlich mal klar machen: Wir reden hier von HW deutlich jenseits der 1.000, 1.200 EUR Marke... kann, darf und MUSS man da nicht eine DEUTLICH höhere Qualitätssicherung und -standard erwarten (und damit eine DEUTLICH niedrigere RMA Quote)? Mal ehrlich? Wir reden von absoluter Luxus Hardware. Und natuerlich erwarte ich bei einem Porsche deutlich bessere Verarbeitung und Gesamtqualität (und auch Qualitätssicherung) als bei einem Dacia.
Tu doch bitte nicht als seist du dermassen blind lieber Troyan.

Deswegen gibts wegen dem Lüfterweinen auch massig RMAs, was Nvidia wohl auch durchwinkt.
Das muss eben dem Produzenten klar sein, je höher der Preis desto pingeliger sind die User, vollkommen zurecht!

Ravenhearth
2018-10-30, 21:33:53
Auch nach der Verneinung von allgemeinen Problemen hat Heise trotzdem die News veröffentlicht. Hier wird jeder journalistische Maßstab ad absurdum geführt.
Weil Nvidia sagt, es gäbe keine Probleme, darf darüber nicht mehr berichtet werden oder was? Sie berichten davon, dass es augenscheinlich eine erhöhte Anzahl an Problemen gibt, was im Vergleich mit früheren Launches auf jeden Fall auffällig ist, und verweisen zeitgleich auf Nvidias Statement dazu. Keine Ahnung was daran nicht neutral sein soll. Das Problem totzuschweigen, weil Nvidia es für nicht existent erklärt, ist jedenfalls erst recht kein guter Journalismus.

Troyan
2018-10-30, 21:46:24
Natürlich soll über Probleme berichtet werden. Aber bitte mit vernünftigen Zahlen und einer objektiven und bewertbaren Grundlage.

Hier, nimm mich: Meine Odyssee führte mich über drei Karten:
FE, Asus Dual OC und nun Gigabyte Gaming.

Und dazu die Fakten: Alle liefen. Keine machte Probleme. Also kein DoA bei mir von drei verschiedenen Herstellern mit drei verschiedenen PCBs.

Ob die FE und Asus nach zwei Wochen den Geist aufgegeben hätten? Keine Ahnung. Bei der Gigabyte kann ich es dir in einer Woche sagen. :D

Cyphermaster
2018-10-30, 21:47:16
Die Quote insgesamt ist noch gar nicht soo hoch. Bemerkenswert ist dabei hingegen, daß die gemeldeten Fehlerbilder sich allesamt so stark gleichen. Bei rein statistischen Ausfällen würde man eine gewisse Streuung an RMA-Gründen erwarten, auch bei den Beschwerden im Herstellerforum. Montagedefekte, Bauteildefekte, Lötdefekte, etc.. Auch die Zeit, nach der die Probleme auftreten, würde eine gewisse Streuung zeigen, während hier die Nutzungsdauern in Stunden sich in ihrer Größenordnung wohl ähneln. Statistische Häufungen hingegen weisen tendenziell eher auf systematische Fehler hin. Auch daß nach aktuellem Anschein alles Seriennummern vor 0333... sind, die gemeldet wurden, während die höheren Kartennummern trotz gleicher oder längerer Nutzung noch funktionieren, ist eher ein Indiz, daß es sich nicht alleine um zufälliges Phänomen handelt.

Man wird abwarten müssen, wie es sich entwickelt. Bleibt es bei Problemen mit ein paar ersten Chargen, ist es kein großes Thema, dann wird man die seitens nVidia abschreiben (= tauschen, wahrscheinlich nicht mal präventiv, halt blöd für die Early-Adopter) müssen und gut. Sollten sich aber weitere Häufungen finden, bzw. die identische Tendenz auch bei den 2070ern zu Tage treten (müßte dann ja ziemlich zügig auch was an Beschwerden reinkommen), dann wäre wohl etwas faul im Staate Dänemark.

Troyan
2018-10-30, 22:07:25
Die Fehler deuten auf den GDDR6 Speicher hin. Wer weiß, ob die hohen Transferraten nicht doch problematisch sind als gedacht. Da vor Allem 2080TI Karten betroffen sind, scheint die Eigenwärme des Speichers und die fast 50W mehr der TI zuviel zu sein...

Digidi
2018-10-30, 22:09:50
Wenn es der Speicher wäre wären 2080 auch betroffen. Davon gibt es aber überhaupt keine Meldung! Ich glaube eher das der Chip brüchig ist bei der 2080ti weil er so groß ist. Bei Titan V gibt es ja das gleiche Problem.

SKYNET
2018-10-30, 22:17:12
Die Fehler deuten auf den GDDR6 Speicher hin. Wer weiß, ob die hohen Transferraten nicht doch problematisch sind als gedacht. Da vor Allem 2080TI Karten betroffen sind, scheint die Eigenwärme des Speichers und die fast 50W mehr der TI zuviel zu sein...

es gibt genau 2 optionen: der IMC in der GPU ist reihenweise am sterben oder der speicher ist mist... da es aber auch bei den 2080er karten auftritt, und nicht nur bei der Ti, kann man wohl den speicher ausschliessen :freak:

Digidi
2018-10-30, 22:29:41
es gibt genau 2 optionen: der IMC in der GPU ist reihenweise am sterben oder der speicher ist mist... da es aber auch bei den 2080er karten auftritt, und nicht nur bei der Ti, kann man wohl den speicher ausschliessen :freak:


Hä wenn es bei den 2080 non ti auftritt dann kann es auch der speicher sein. Die verwenden alle den gleichen Speicher.

vinacis_vivids
2018-10-30, 22:48:38
Mehr Speicherbausteine ~ mehr potentielle Defektstellen. Auch der IMC ist empfindlicher durch den größeren L2-Cache zumal Nvidia wieder krass am Speichersystem gebastelt hat.

Auch die ganzen unterschiedlichen Cores (int32, fp32, tensor, RT usw.) verlangen alle nach Speicherzugriff mit kurzen Latenzen.

=Floi=
2018-10-30, 23:12:19
Die vega sind doch auch suspekt, weil es fast keine customs gibt...

Dural
2018-10-30, 23:24:45
Liegt am speicher, er wird zu warm. Deswegen ist vorallem auch die 2080ti betroffen, mehr wärme auf der gleichen fläche.

Diese voll verpackten pcb sehen zwar toll aus, sind kühltechnisch aber einfach nur schlecht, da nirgends luft ran kommt.

Ich würde den kühler abmontieren und auf wakü umrüsten. Oder als alternative den lüfter @ 100% laufen lassen ;)

Troyan
2018-10-30, 23:28:52
Und Axial-Design. Die FE läuft dann nach einiger Zeit in der eigenen heißen Suppe.


Aber mal was anderes: Boost 4.0 ist schon ziemlich lustig. Gerade Battlefront 2 gespielt: 1980Mhz. Das sind 150Mhz mehr als in Wolfenstein 2. Und das alles bei rund 320W.

Digidi
2018-10-30, 23:33:17
Liegt am speicher, er wird zu warm. Deswegen ist vorallem auch die 2080ti betroffen, mehr wärme auf der gleichen fläche.

Diese voll verpackten pcb sehen zwar toll aus, sind kühltechnisch aber einfach nur schlecht, da nirgends luft ran kommt.

Ich würde den kühler abmontieren und auf wakü umrüsten. Oder als alternative den lüfter @ 100% laufen lassen ;)
Die Belastung der ram Chips ob 2070 und 2080ti gleich groß.

Achill
2018-10-30, 23:53:53
Igor hat vom 2080TI Review nochmal die IR-Bilder untersucht und dabei festgestellt, dass zwei bestimmte Speichermodule besonders heiß werden: https://www.tomshw.de/2018/10/30/stimmen-haeufen-sich-sterbende-nvidia-rtx-2080-ti-grafikkarten/#mcetoc_1cr2s24jk0

Könnte also ein schlichtes Layout-Problem sein - was nichts am Umstand ändern würde, dass es ein Problem für die Käufer ist.

=Floi=
2018-10-31, 02:45:22
Und Axial-Design.

was soll es denn für ein besseres system (im lukü bereich bei der baugröße) geben?
Wäre die unnötige abdeckplatte nicht, würde das pcb wohl auch besser gekühlt werden. So schirmt man alles ab und kocht die karte mit der wärme der gpu.



kann man jemand erklären, warum der ram nicht so temperaturstabil wie der rest ist?

horn 12
2018-10-31, 06:48:13
Geiler Preis:

https://www.bpm-power.com/it/product/1931063/?referralToken=8b0dce5e20969c3657892e882ef64148

Karte will wohl keiner :-= ))

TobiWahnKenobi
2018-10-31, 08:49:29
ich werde die 2080Ti die hier noch im system steckt mal mit dem laserthermometer abfahren. bin da durch mangelndes interesse irgendwie drüber weggekommen. bei den titan-dingern mach(t)e ich das eigentlich immer nach einem umbau. würde mich allerdings wundern, wenn da irgendwo eine stelle mit über 60°C sichtbar wird.

btw,
wer hätte - rein hypothetisch gesprochen - eigentlich etwas davon, wenn jetzt wegen eventueller ausfälle ein shitstorm startet?



(..)

mfg
tobi

Linmoum
2018-10-31, 08:59:19
Ich denke nicht, dass Igor da falsch gemessen hat. Und es passt auch dazu, da das alles ja doch eher auf den Speicher als Ursache hindeutet.

Aber ein grundsätzlicher Layout-Fail wäre schon... mehr als nur vermeidbar (gewesen).

E: Don hat sich das auch noch mal näher angeschaut (5. Beitrag von oben).

https://www.hardwareluxx.de/community/f14/die-geforce-rtx-2080-ti-leidet-offenbar-erhoehter-ausfallrate-1213617-5.html

Die Beobachtung von Igor scheint zutreffend zu sein. Ist dann die Frage, ob das die tatsächliche Ursache ist. Auf jeden Fall sind die Temps dort unnötig hoch. Vielleicht eben zu hoch.

SKYNET
2018-10-31, 10:19:21
Hä wenn es bei den 2080 non ti auftritt dann kann es auch der speicher sein. Die verwenden alle den gleichen Speicher.

die einen haben micron(Ti), die anderen samsung(non Ti) soweit ich das in erinnerung habe...

SKYNET
2018-10-31, 10:20:30
Liegt am speicher, er wird zu warm. Deswegen ist vorallem auch die 2080ti betroffen, mehr wärme auf der gleichen fläche.

Diese voll verpackten pcb sehen zwar toll aus, sind kühltechnisch aber einfach nur schlecht, da nirgends luft ran kommt.

Ich würde den kühler abmontieren und auf wakü umrüsten. Oder als alternative den lüfter @ 100% laufen lassen ;)


da der fehler in windows auftritt, wo die GPU runtergetaktet ist, und die FE nichtmal die lüfter abstellt, also sehr kühl sein sollte, kann man wärme wohl gänzlich als fehlerquelle ausschliessen...

Dural
2018-10-31, 10:24:50
Nein, angeblich werden die auch im 2D Modus extrem warm und viele sprechen davon das es erst nach einer gewissen aufheizzeit kommt. Eventuell ist danach auch was beschädigt und der fehler kommt auch bei geringer Belastung.


Ganz ehrlich, als ich das erste mal das PCB der 2080TI gesehen habe, habe ich mir gleich gedacht das kommt nicht gut! Der Speicher liegt extrem nahe zwischen GPU und Spannungsversorgung, und erst noch genau in der mitte davon. :freak:

hlynska
2018-10-31, 10:40:39
Was mich nur gerade etwas erstaunt:
Folgt man Heises Interpretation des NDA, dürften solche Kritiken wie die von CB, PCGH, TH und HWL ja gar nicht existieren...
Da hat jemand aber mindestens eine tiefgrüne Leiche im Keller, denn so normal sind diese Ausfälle ja nun nicht mehr. :D

dildo4u
2018-10-31, 10:42:49
Das NDA gilt für nicht veröffentlichte Produkte.Natürlich können sie jetzt schreiben was sie wollen.

Raff
2018-10-31, 10:44:46
die einen haben micron(Ti), die anderen samsung(non Ti) soweit ich das in erinnerung habe...

Nope, so pauschal funktioniert das nicht. In meinem Pool befinden sich beispielsweise nur Micron-bestückte Karten.

MfG,
Raff

hlynska
2018-10-31, 10:51:14
Das NDA gilt für nicht veröffentlichte Produkte.Natürlich können sie jetzt schreiben was sie wollen.Der Logik kann ich jetzt nicht folgen, denn es hieß ja auch, man dürfe keinem Review mehr trauen (die sich ja dann auch auf veröffentlichte Produkte beziehen). So ähnlich habe ich es ja auch dem Heise-Video entnommen. Anyway, das war viel Lärm um nichts, wie erwartet.

Aber eigentlich habe ich alles richtig gemacht und nicht gleich gekauft. Wie auch beim 9900K. Mal abwarten, was da noch so kommt. Preislich und materialtechnisch. Als Early Adaptor ist man eh immer Beta-Tester und Melkkuh in Personalunion. :(

SKYNET
2018-10-31, 10:52:29
Nope, so pauschal funktioniert das nicht. In meinem Pool befinden sich beispielsweise nur Micron-bestückte Karten.

MfG,
Raff

reddit wars glaube ich, sinds karten mit hersteller von beiden speichern die betroffen sind... und da auch custom PCBs betroffen sind, wo der speicher seperat gekühlt wird ohne direkte verbindung zur kupferplatte die auf der GPU aufliegt, würde ich wirklich zu 95% den speicher selber als fehlerquelle ausschliessen... essei GDDR6 hat ein generelles designproblem, weil das wäre dann ja hersteller übergreifend :eek:

Dural
2018-10-31, 10:56:49
Die RTX Karten haben doch alle Micron drauf? Samsung kommt doch bei den Quadro Karten zum Einsatz.

Meine 2070 hat jedenfalls klar Micron drauf.

SKYNET
2018-10-31, 10:58:23
Die RTX Karten haben doch alle Micron drauf? Samsung kommt doch bei den Quadro Karten zum Einsatz.

Meine 2070 hat jedenfalls klar Micron drauf.


mhhh... warens nur die quadro? ich bin da unsicher... muss schnell nachschlagen. :eek:

dildo4u
2018-10-31, 11:01:49
Samsung fertigt vermutlich die höhere Kapazität die man für die Quadros mit 24GB und 48GB braucht.

Linmoum
2018-10-31, 12:17:57
Micron RTX und Samsung Quadros.

Lehdro
2018-10-31, 12:32:01
HardwareUnboxed hat weitere News zum Kartensterben, ist wohl wahrscheinlich doch ein größeres Problem:

z75wDmwfIJY

hmmm
2018-10-31, 12:40:20
Ahh, jetzt verstehe ich "poor volta".
Sorry, musste sein.

dargo
2018-10-31, 12:46:53
Micron RTX und Samsung Quadros.
Verträgt der Samsung Speicher denn höhere Temperaturen?

Cyphermaster
2018-10-31, 13:23:23
Brauchen sie vielleicht nicht - die Quadros haben statt der Doppel-Axiallüfter- eine DHE-Kühllösung, die eventuell die vermutet kritischen beiden RAM-Module auf besserer Temperatur zu halten vermag.

TobiWahnKenobi
2018-10-31, 13:42:59
ich habe mir das jetzt mit meiner modifizierten karte auch mal angeschaut und sie mit dem laser-thermometer abgefahren.

erst das wasser und die karte ein bissl aufgeheizt um schlechte bedingungen zu schaffen..

https://abload.de/thumb/rtx-ti-auftemperaturgn8iwe.jpg (https://abload.de/image.php?img=rtx-ti-auftemperaturgn8iwe.jpg)

dann far cry 5 @ultra /uhd mit 150% auflösungsskalierung gespielt. diese einstellung belegt über 10GiB VRAM und ich habe immer wieder die rückseite
der karte mit dem laser-thermometer überfahren.. wieder und wieder.. zentimeter für zentimeter.

von den temperaturen, die igors wärmebild zeigt, bin ich sehr weit weg.

mit eingestellten 8000MHz bleibt die backplatelose rückseite an den stellen wo die BGAs sitzen zwischen 43 und 47°C. die heisseste stelle ist hinten rechts. also die ecke der karte, die zum mainboard zeigt und wo offensichtlich die wenigste frischluft ankommt; da gab es 55-57°C. der bereich der GPU bleibt 2-5°C unter dem wert, den die software für die CPU-temp ausliest.

die GPU ging in diesem gestellten farcry-szenario knapp über 50°C hinaus.

https://abload.de/img/rtx-ti-loadtempscoc9n.jpg

leider habe ich vor dem umbau verpennt die karte mit stock-cooler zu messen, aber ich stelle mal in den raum, dass die temperaturen da mindestens gleichhoch sind, wenn nicht höher. es gab ja auch mal eine backplate, auf deren vorhandensein ich aus überzeugung verzichte.

ich denke, ich muss noch nicht alarmiert sein, dass die karte schnell aufgrund schlechter temperaturen ausfällt. es gab seit dem umbau auch kein abnormales verhalten, artefakte, blackscreens oder ähnliches. augenscheinlich scheint hier alles im grünen bereich zu sein. wenn die karte hochgeht, dann nicht weil ihr warm wird.


(..)

mfg
tobi

SKYNET
2018-10-31, 14:44:27
Micron RTX und Samsung Quadros.


japp, hatte mich über den mittag mal durchgelesen, war so... my fault :redface: war irgendwie hängen geblieben micron auf 2080Ti + quadro und drunter samsung :rolleyes:

x-force
2018-10-31, 16:04:38
Verträgt der Samsung Speicher denn höhere Temperaturen?

ich hab schon nach dem 1070 launch behauptet, dass der micron speicher schlechter ist als die samsung variante. den fakt konnte auch das viel zu späte bios update für micron karten nicht ändern.
warum hatten alle launch review karten wohl samsung speicher?

zwei generationen später hat sich natürlich nichts geändert.
samsung stellt mit b-die den besten ddr ram her, warum sollte es bei gddr großartig anders sein?

jetzt gibt nvidia indirekt selbst zu, daß samsung besser ist.
ich finde das sogar extra frech apothekenpreise für ein zweite wahl produkt zu verlangen. bleibt nach wie vor zu hoffen, das rtx floppt und die mal wieder einen gang runterschalten.

Dural
2018-10-31, 16:13:23
Samsung wird bei den Quadro wohl eher wegen der Kapazität verbaut ;)

vinacis_vivids
2018-10-31, 16:20:43
Und weil Samsung einfach qualitativ hochwertiger ist. Für die Gamer-Zunft reichen günstigere Micron's aus, weil nach Ansicht von NV ein paar Bildfehler nicht zum Untergang der Welt führt während bspw. wissenschaftliche/professionelle Anwender schon eine höhere Präzision und Fehlerkorrektur verlangen.

=Floi=
2018-10-31, 16:47:11
micron wird dafür genauso geeignet sein.
würdest du mal genauer lesen, gibt es wohl auch professionelle karten mit micron chips. imho muss dort sowieso ECC aktiviert sein. Also ist es egal was verbaut wird.

nv wird für micron einfach bessere konditionen bekommen haben. Dafür gibt es auch so extra sachen wie gddr5x.

das thema mit der temp wird aber noch richtig interessant.


edit
denke samsung legt ihre chips einfach auf mehr aus und micron designed auf die jedec spezifikation. Bei samsung kann man sich imho auch eine erste überarbeitung sparen und kann die vorhandenen chips nach selektion dann als eine stufe besser verkaufen.

Daredevil
2018-10-31, 17:20:37
ich hab schon nach dem 1070 launch behauptet, dass der micron speicher schlechter ist als die samsung variante..
Gleiches Spiel auch bei HBM2 auf Vega.
Ich hatte jetzt insgesamt 5 Vega Karten hier und der taktfreudigste HBM2 war einfach der von Samsung. Das macht ihn nicht unbedingt zum besseren RAM, aber je weiter sich etwas übertakten lässt, desto weiter weg arbeitet es eben auch vom Limit entfernt, Fehler zu produzieren. 1100Mhz sind mit Samsung möglich mit Vega64 Bios, der andere Ram hat immer bei 920-980Mhz schlapp gemacht. Das ist schon ein ordentlicher Unterschied.

Raff
2018-10-31, 17:26:51
Mit was hast du den Hersteller festgestellt? GPU-Z?

MfG,
Raff

crux2005
2018-10-31, 19:34:17
Der Micron Speicher ist Schrott. Und es liegt wahrscheinlich an ihm. z.B. https://www.reddit.com/r/nvidia/comments/9t1fwc/failing_rtx_2080_ti_source_discovered_its_the/

btw: OC Scanner testet auch mit 6800 und nicht 7000 MHz RAM takt.

Radeonfreak
2018-10-31, 19:40:07
Hmm...meine läuft immer noch super mit +400 - +600 MHZ.

Kriegsgeier
2018-10-31, 20:17:31
Was werden die 2080tis wohl als gebrauchte Karten in 1-1,5 Jahren noch wert sein? Wohl 300-400€ würde ich behaupten
Denn wer will später solch ein Risiko einkaufen?
Ohne Garantie usw.

Dural
2018-10-31, 20:26:55
Nur so als info, es gab eine zeit da gab es weit und breit nichts besseres als micron speicher.

Linmoum
2018-10-31, 20:30:06
It just works

vinacis_vivids
2018-10-31, 20:58:56
Samsungchips haben wohl eine höhere Toleranz was Elektroströme und Temperatur angeht, spricht Qualität. Nicht desto trotz wird Nvidia mit dem Hauspartner PNY? das PCB-Design ändern und eine genauere Qualitätskontrolle durchführen müssen.
Schlimmer wäre eine architekturbedingte Folge durch zu häufige Speicherzugriffe und damit zu Speicherabnutzung durch Lastwechsel. Am schlimmsten wäre Micron's generell schwache Qualität.

hq-hq
2018-10-31, 21:08:05
Schlimmer wäre eine architekturbedingte Folge durch zu häufige Speicherzugriffe und damit zu Speicherabnutzung durch Lastwechsel.

:freak: Speicherabnutzung durch häufige Zugriffe :biggrin: das wär ja schön blöd :D neee, das liegt bestimmt nur an der Temperatur und/oder einen tatsächlichen Qualitätsmangel bei Micron

Mortalvision
2018-10-31, 21:50:53
Oder es liegt an einem bisher nicht beachteten Problem in der 10nm Fertigung. Man darf gespannt bleiben!

vinacis_vivids
2018-10-31, 22:16:37
:freak: Speicherabnutzung durch häufige Zugriffe :biggrin: das wär ja schön blöd :D neee, das liegt bestimmt nur an der Temperatur und/oder einen tatsächlichen Qualitätsmangel bei Micron

Speichertod gehört nunmal zu den häufigsten Ursachen für den Tod einer Grafikkarte, besonders wenn man sie (stark) übertaktet bzw. über der Spezifikation bzw. nahe am Limit betreibt, was Nvidia ja macht.

Das GPU-Silizium an sich ist da resistenter, was man jetzt bei der großen Die von Nvidia vllt. auch nicht mehr behaupten kann. Von der Herstellung her gesehen und nicht von mechanischen Beschädigungen durch Montage des Kühlkörpers (o.ä).

Möglicherweise entstehen Fehler auch durch Nvidia`s krumme Methoden zu cutten. Besonders das SI und damit verbunden die Speicherbestückung zur Erhöhung der Ausbeute stehen im Fokus.

Wer zuviel und komisch schneidet, schneidet sich irgendwann selbst in die Finger.

Oder es liegt an einem bisher nicht beachteten Problem in der 10nm Fertigung. Man darf gespannt bleiben!

12nm -Fertigung ist nun nicht mehr superneu. Die 16nm haben/hatten sie perfekt im Griff. Die Fertigung an sich wirds kaum sein, sondern eher das Zusammenspiel zwischen neuer Architektur und damit verbunden zuviel Speicherzugriffe. Color compression lässt grüßen :D

hq-hq
2018-10-31, 22:45:34
Wer zuviel und komisch schneidet, schneidet sich irgendwann selbst in die Finger.

klingt fundiert, Hut ab :freak:


ernsthaft,


Speichertod gehört nunmal zu den häufigsten Ursachen für den Tod einer Grafikkarte, besonders wenn man sie (stark) übertaktet bzw. über der Spezifikation bzw. nahe am Limit betreibt, was Nvidia ja macht.


Speichertod eine häufige Ursache, wo hast du das her? Würd mich interessieren.

Also defekte Grafikkarten hatte ich schon einige auch wenns nicht alles meine waren, 2x GPU defekt, 2x BSOD, 1x ESD Schaden - bei den BSOD konnte man eine durch das Backen im Backofen für ca. 6 Monate wieder richten und die ESD geschädigte (Swiffer Tuch) permanent... oh Offtopic sorry

über der Spezifikation bzw. nahe am Limit betreibt ... hm hab ich was nicht mitbekommen? Bitte um Auflärung - Danke :smile:

Troyan
2018-10-31, 22:47:38
Hmm...meine läuft immer noch super mit +400 - +600 MHZ.

Meine Gigabyte macht 700MHz mit. Und läuft astrein. Gerade stundenlang Battlefront 2 gespielt.

BeetleatWar1977
2018-11-01, 07:51:04
Frage am Rande - zeigen die Karten eigentlich die Speichertemps an?

dildo4u
2018-11-01, 08:15:40
Wäre mal interessant ob die 999$ Karten das Problem nicht haben das sie nicht Werks OC sind.

dargo
2018-11-01, 08:51:26
Der Micron Speicher ist Schrott. Und es liegt wahrscheinlich an ihm. z.B. https://www.reddit.com/r/nvidia/comments/9t1fwc/failing_rtx_2080_ti_source_discovered_its_the/

Naja... für mich sieht das eher danach aus als ob eine bestimmte Charge vom Micron Speicher die Spezifikation nicht schafft. Zumindest deutet darauf hin, dass viele keine Probleme haben. Hoffentlich bleibt das auch so.

Cyphermaster
2018-11-01, 09:04:09
Interessant wäre vielleicht ein Vergleich verschiedener Custom-Karten mit Igors Thermographiekamera.

Dural
2018-11-01, 09:18:26
Also für mich sieht das ziemlich klar nach Temperatur Problem aus, ich meine bis zu 90°C auf dem Speicher ist mal eine Ansage! Und wenn da noch übertaktet wird und die Karte in einem schlecht belüfteten Gehäuse verbaut ist, sind die Probleme doch schon Vorprogrammiert! Ich würde da auch nicht Micron die schuld geben, dürfte wohl viele unglückliche Umstände dazu geführt haben.

Gab es eigentlich mal ein Ref. Karte mit Axial Kühler wo es keine Temperatur Probleme gab? :freak: :wink:

Wenigstens könnte das die zum Teil extrem grossen OC Schwankungen beim Speicher erklären. Da scheint der Micron Speicher grosse Schwankungen zu haben und offensichtlich spielt auch die Temperatur eine rolle. Die grossen OC Schwankungen fand ich ja von Anfang an sehr komisch.

BeetleatWar1977
2018-11-01, 09:23:35
Also für mich sieht das ziemlich klar nach Temperatur Problem aus, ich meine bis zu 90°C auf dem Speicher ist mal eine Ansage! Und wenn da noch übertaktet wird und die Karte in einem schlecht belüfteten Gehäuse verbaut ist, sind die Probleme doch schon Vorprogrammiert! Ich würde da auch nicht Micron die schuld geben, dürfte wohl viele unglückliche Umstände dazu geführt haben.

Gab es eigentlich mal ein Ref. Karte mit Axial Kühler wo es keine Temperatur Probleme gab? :freak: :wink:

Wenigstens könnte das die zum Teil extrem grossen OC Schwankungen beim Speicher erklären. Da scheint der Micron Speicher grosse Schwankungen zu haben und offensichtlich spielt auch die Temperatur eine rolle. Die grossen OC Schwankungen fand ich ja von Anfang an sehr komisch.
Offiziell ist der Micron bis 95Grad ausgelegt..... wenn ich aussen schon 90Grad messe - oO


Edit: Quelle (https://www.micron.com/products/dram/gddr/gddr6-part-catalog#/)

Cyphermaster
2018-11-01, 10:00:40
Also für mich sieht das ziemlich klar nach Temperatur Problem aus, ich meine bis zu 90°C auf dem Speicher ist mal eine Ansage! Und wenn da noch übertaktet wird und die Karte in einem schlecht belüfteten Gehäuse verbaut ist, sind die Probleme doch schon Vorprogrammiert! Ich würde da auch nicht Micron die schuld geben, dürfte wohl viele unglückliche Umstände dazu geführt haben.

Gab es eigentlich mal ein Ref. Karte mit Axial Kühler wo es keine Temperatur Probleme gab? :freak: :wink:

Wenigstens könnte das die zum Teil extrem grossen OC Schwankungen beim Speicher erklären. Da scheint der Micron Speicher grosse Schwankungen zu haben und offensichtlich spielt auch die Temperatur eine rolle. Die grossen OC Schwankungen fand ich ja von Anfang an sehr komisch.
Kann man vermuten, daher wäre es ja gut, Messungen zu verschiedenen Designs zu haben und die mit den Ausfällen zu korrelieren. Das könnte den vermuteten Zusammenhang mit starken Indizien untermauern. Große OC Varianz und Messungen an einer einzelnen Karte könnten auch noch am Speicher liegen, zumal auch Custom-Karten ausfallen, nicht nur die von Igor vermessene Referenz.

Ätznatron
2018-11-01, 10:03:00
Offiziell ist der Micron bis 95Grad ausgelegt..... wenn ich aussen schon 90Grad messe - oO


Edit: Quelle (https://www.micron.com/products/dram/gddr/gddr6-part-catalog#/)

Also ist Micron aus der Sache raus und es liegt eindeutig an nVidias Platinenlayout.

Dural
2018-11-01, 10:11:31
@Cyphermaster

Aktuell verwenden wohl die meisten 2080ti Karten die schon ausgeliefert wurden noch das Referenz PCB. Das werden wir wohl erst sehen wenn viele Custom PCB in den Handel kommen.

Cyphermaster
2018-11-01, 10:22:14
Referenz PCB, aber nicht 100% den identischen Kühler. Das wäre mal ein Anfang, mehr ist halt erst später drin.

4pple
2018-11-01, 12:01:22
Messungen Hardwareluxx:
https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/47713-die-geforce-rtx-2080-ti-leidet-offenbar-an-erhoehter-ausfallrate.html

Dural
2018-11-01, 12:23:01
Der Typ der das Layout gemacht hat sollte man feuern :wink:

Aber schön zu sehen das die Karte nur in den kritischen Bereich kommt wenn man übertaktet, so viel zum Thema der User die Probleme haben und die Karte Garantiert nicht übertaktet haben... ;D

Aber das war doch auch klar.

Daredevil
2018-11-01, 12:31:22
Man sieht bei den Hardwareluxx Bildern auch sehr gut, dass in der Mitte der Karte halt logischerweise der Hotspot ist und genau dort wurde der Kühler so gebaut, dass nur wenig Luft entweichen kann. Zumindest bei dem Referenz Design.
80°C Coretemp haben die dort im offenen Aufbau gemessen, der EVGA Custom Kühler hat 10-15°C weniger rausgehauen.
Das hat JayzTwoCents auch schon beim Review gesagt:
https://youtu.be/WDrpsv0QIR0?t=529

Cyphermaster
2018-11-01, 12:44:48
Der Typ der das Layout gemacht hat sollte man feuern :wink:Die QM, die die Karten vor dem Launch validiert hat, scheint man ja schon gefeuert zu haben - erkennbar wäre die Schwäche ja durchaus gewesen.
Aber schön zu sehen das die Karte nur in den kritischen Bereich kommt wenn man übertaktet, so viel zum Thema der User die Probleme haben und die Karte Garantiert nicht übertaktet haben... ;D

Aber das war doch auch klar.Is dir klar, daß die Messungen von Hardwareluxx mit hoher Wahrscheinlichkeit nicht unter Realbedingungen, sondern auf einem Benchtable oder einem offenen Gehäuse gemacht wurden?

Addiert man ein paar Grad für wärmere Sommertemperaturen oder für ein geschlossenes/nicht massiv belüftetes Gehäuse oder für zusätzliche Wärmequellen, ist man von den gemessenen 84°C aus durchaus schon am Limit. Macht man aus einem bzw. mehreren dieser "oder" dann noch ein "und", bekommt man die Karten auch ganz ohne OC definitiv in den roten Bereich (no pun intended ;)).

Cyphermaster
2018-11-01, 12:49:23
80°C Coretemp haben die dort im offenen Aufbau gemessen, der EVGA Custom Kühler hat 10-15°C weniger rausgehauen.War das ein Dual- oder Triple-Fan-Kühler?

Daredevil
2018-11-01, 12:54:41
Beides Dual Fan, nur die EVGA ist halt Triple Slot dick und kein Dual Slot.
Der Luftauslass ist nun echt mal deutlich größer, aber ka wie relevant das ist.

PS: Hauptsache das Logo blinkt. :D
https://abload.de/img/unbenannt9cc0b.png

Troyan
2018-11-01, 12:59:50
Das ist nicht relevant. eVGA verwendet Heatpipes, das Referenzmodel eine Vaporchamper über der kompletten Karte.

Daredevil
2018-11-01, 13:08:01
Und was genau hat diese Aussage nun mit dem Abtransport der Wärme zutun? Du redest von der Aufnahme der Abwärme.
Unter der Plastik Abdeckung kann auch eine AiO WaKü mit Radiator verbaut sein, wenn die Wärme nicht gescheit abgetragen werden kann, weil das Logo im Weg ist, ist das halt nicht cool. Die Mainboard Seite ist dicht, die Vorderseite hat keine Öffnung, lediglich die Rückseite ein klein wenig.

Jay hat 80°C gemessen unter klimatischen Bedingungen im offenen Testbench unter Stock Taktraten.
Die EVGA haut 10-15°C weniger raus.

Wer hält wohl besser durch mit höheren Temperaturen im Gehäuse + OC? ^^

Dural
2018-11-01, 14:20:26
Ich glaube NV ist das schon länger bewusst, deswegen sind auch kaum 2080Ti Karten verfügbar.

Ich habe mal die Custom PCB angeschaut, alle die ich fand lassen zwischen Speicher und Spanungsversorgung deutlich mehr Platz + die Kühler werden wahrscheinlich etwas besser sein.

Die Hersteller haben auf das Problem offensichtlich schon reagiert ;)

Freestaler
2018-11-01, 14:46:33
Ich kann nicht anderst, sorry.. ist das nun evtl der "overclockdream"? *Duckundweg*

Cyphermaster
2018-11-01, 15:41:38
Das ist nicht relevant. eVGA verwendet Heatpipes, das Referenzmodel eine Vaporchamper über der kompletten Karte.
Genau wie der Hubraum eines Autos völlig irrelevant für die Performance ist, weil das eine Auto Automatik-, das andere Schaltgetriebe hat.

AffenJack
2018-11-01, 17:42:59
Also ist Micron aus der Sache raus und es liegt eindeutig an nVidias Platinenlayout.

Nope, bei Hardwareluxx hat wer den gleichen Fehler bei der Strix und anderen Custom PCB Karten, die teilweise massig Platz zwischen Ram und VRMs haben, so dass der ram da nicht warm werden sollte. Eher eine Kombination von beiden oder Micron kriegt den Ram nicht hin.

Geächteter
2018-11-01, 18:04:00
oder Micron kriegt den Ram nicht hin.
Eher wohl das, paar Fertigungsschwankungen im neuen Prozess, sonst wären viel mehr Karten betroffen und später dann durch "Abnutzung" (fast) alle.
Dass die Non-Ti nicht betroffen ist, könnte vielleicht daran liegen, dass sie weniger Speicherpfade hat.

Cubitus
2018-11-01, 19:06:31
Ich wette 90% der Probleme kommen vom OC Ram..

Oh die 2070 hat 8000 Mhz und die 2080TI stürzt damit ab :rolleyes:

Linmoum
2018-11-01, 19:12:36
Es kommt sowohl bei der FE als auch bei Customs ohne OC zu exakt diesem Problem. Die Ursache wird also woanders liegen.

dildo4u
2018-11-01, 19:35:49
Es kommt sowohl bei der FE als auch bei Customs ohne OC zu exakt diesem Problem. Die Ursache wird also woanders liegen.

FE und alles Customs bisher sind OC Modelle.

Das hier wäre ein Non OC Modell.

https://www.evga.com/products/product.aspx?pn=11G-P4-2281-KR

LadyWhirlwind
2018-11-01, 20:21:36
FE und alles Customs bisher sind OC Modelle.

Das hier wäre ein Non OC Modell.

https://www.evga.com/products/product.aspx?pn=11G-P4-2281-KR

Von OC im Zusammenhang mit diesen Fehlern sollte man nur reden, wenn die GPUs oberhalb der vom Hersteller (NVidia!) für die jeweilige GPU freigegeben Spezifikationen betrieben wurden.

Werks OCs ist in dem Sinn kein Oc, wobei es natürlich auch sein kann, dass nicht alle GPUs das auch vertragen.

Die Boardpartner kaufen die GPUs ja bereits als OC Chips ein.
https://www.tomshw.de/2018/09/15/nvidia-selektiert-vor-binning-mit-3-qualitaetsstufen-fuer-die-rtx-2080-und-rtx-2080-ti/#

Ich vermute ja das eine defekte Charge des Speichers für die Fehler verantwortlich ist. Je nach dem wie Nvidia die Speicherverteilung handhabt, kann es gut sein, dass nur bei TIs statistisch relevante Mengen an defekten Speicherchips verwendet wurde.

Freestaler
2018-11-01, 20:26:00
Obacht, die FE und Custom mit A Chip haben die höhere TDP als die Referenz. Da es nun kein offizieller Namen gibt, ist nicht so verkehr dann von den OC zu sprechen vor allem da die höher Abwärme ja auch im verdacht steht. Und das sind nun eben nicht die "Custom" sondern OC Custom bzw. A-Chip Custom. Die Custom/Referenz/NonAChip sind bis dato ja nicht betroffen bzw. kein Fall bekannt.

Oder wie willst du die jeweiligen Karten und deren TDP sonst unterscheiden? Ich sehe auch nur "Referenz und OC" oder ebe "NonA Chip und A Chip". Nvidia selbst unterscheidet ja nicht offiziell.

Edit: Sogar Nvidia schreibt selbst "OC" bei den Taktraten der Founders Edition: https://www.nvidia.com/en-us/geforce/graphics-cards/rtx-2080-ti/#specs Ergo ist die unterscheidung eben Referenz und OC Karten sowie Custom und Custom OC.

LadyWhirlwind
2018-11-01, 20:42:12
Gute Frage. Ich sehe halt in dem Zusammenhang OC als Marketingbegriff, mit dem ein Preisaufschlag für besonders hochwertige GPUs gerechtfertigt werden soll, vorallem wenn schon von Nvidia selber mit der Founders Edition OC Karten verkauft werden. Karten die mit mit Werten Betrieben werden bei denen der Benutzer nicht manuell versucht über die von der Karte bzw. der Steuersoftware vorgegeben Werte zu gehen müssen funktionieren.

OC ist es für mich erdt, wenn man versucht darüber hinauszugehen, weil erdt dann ist der Erfolg nicht garantiert.

gravitationsfeld
2018-11-01, 20:58:28
Eher wohl das, paar Fertigungsschwankungen im neuen Prozess, sonst wären viel mehr Karten betroffen und später dann durch "Abnutzung" (fast) alle.
Dass die Non-Ti nicht betroffen ist, könnte vielleicht daran liegen, dass sie weniger Speicherpfade hat.
Nur 2/3 der Speicher-Chips halt. Macht die Ausfallwahrscheinlichkeit entsprechend geringer.

Dural
2018-11-01, 21:17:55
Glaub ich nicht, von der 2070 und 2080 dürften geschätzt 100x mehr Karten im Umlauf sein. Wenn es nur am Speicher liegt, müsste man das bei den kleinen Karten auch sehen, sogar mehr als bei der 2080ti da einfach deutlich mehr im Umlauf sind.

Wie so auch wenige 2080ti strix betroffen sind verstehe ich auch nicht, jemand müsste mal bei der die temperaturen messen.

aufkrawall
2018-11-01, 21:54:14
Meine 1070 mit Micron-VRAM ging jedenfalls kaputt. :biggrin:

Mr.Bug
2018-11-01, 22:00:12
Das was Igor aufgreift, finde ich auch plausibel - bestimmte Module werden schlicht zu heiss...

Zitat:

"Im geschlossenen Gehäuse könnten die ohnenhin sehr heißen GDDR6-Module M6 und M7 Schaden nehmen, weil es gut und gern auch Temperaturen von deutlich über 90°C geben könnte. Diese Module liegen direkt über den internen Leiterbahnen der Stromversorgung zwischen den PWM-Nodes und dem GPU Sockel und werden sowohl durch die Erhitzung dieser Leiterbahnen auf Grund hoher fließender Ströme, als auch der Wärmewanderung aus Richtung VRM deutlich heißer, als unser Messpunkt mit knapp 85°C..."

https://www.tomshw.de/2018/10/30/stimmen-haeufen-sich-sterbende-nvidia-rtx-2080-ti-grafikkarten/

Atma
2018-11-01, 23:16:20
Meine 1070 mit Micron-VRAM ging jedenfalls kaputt. :biggrin:
Meine MSI GTX 1080 Gaming X mit Micron GDDR5X läuft seit beinahe 2 Jahren von Tag 1 mit zusätzlichen 500 MHz beim VRAM einwandfrei.

x-force
2018-11-02, 03:19:20
Meine MSI GTX 1080 Gaming X mit Micron GDDR5X läuft seit beinahe 2 Jahren von Tag 1 mit zusätzlichen 500 MHz beim VRAM einwandfrei.

die 1080 mit gddr5x gab es auch nicht nur mit micron, oder?

crux2005
2018-11-02, 04:24:17
die 1080 mit gddr5x gab es auch nicht nur mit micron, oder?

AFAIK nur von Micron.

dildo4u
2018-11-02, 09:37:05
Meine 2016 EVGA 1070 mit Micron läuft auch noch nach Bios Update mit +500 auf dem Ram.Ich würde dem Ram selber keine Schuld geben so lange die 2070 und 2080 nicht auch anfangen zu sterben, die 2080 TI ist einfach Thermisch kritischer.

Lowkey
2018-11-02, 10:24:45
Es gab doch die letzten Jahre immer wieder einzelne Modelle mit Fehlern, aber auch grundsätzliche Fehler im Design, die erst nach Monaten erkannt werden. Das bekommt man aber selten mit.

Mein neues Gesetz lautet daher: Grafikkarten erst 3 Monaten nach Release kaufen.

dildo4u
2018-11-02, 18:12:59
Die Karte kann die Vram Temperatur auslesen hat auch ein Hot Spot liegt aber unter 80°.


sEo99mdKh7w

hlynska
2018-11-02, 18:39:01
Total nichtssagendes Labervideo. Der Sensor lag schon bei der 1080 Ti deutlich neben dem Chip und erfasst nicht das Modul selbst. Das wird hier kaum besser sein.

Razor
2018-11-02, 18:42:52
Meine 2016 EVGA 1070 mit Micron läuft auch noch nach Bios Update mit +500 auf dem Ram.Ich würde dem Ram selber keine Schuld geben so lange die 2070 und 2080 nicht auch anfangen zu sterben, die 2080 TI ist einfach Thermisch kritischer.
Wen wunderts?
Die 2080ti ist schlicht am Limit gebaut und offenbar hat man es "ein wenig" übertrieben...

Anbei die PCB der Founders Editions.
Wie man sieht, musste für die 2080ti DEUTLICH mehr Aufwand getrieben werden!

Razor

crux2005
2018-11-02, 19:32:04
Die Karte kann die Vram Temperatur auslesen hat auch ein Hot Spot liegt aber unter 80°.


http://youtu.be/sEo99mdKh7w

+1025 MHz RAM
"in Far Cry 5 it went down a few FPS when we overclocked it and that's obviously because of the CPU bottleneck." ;D

BeetleatWar1977
2018-11-02, 20:32:17
Total nichtssagendes Labervideo. Der Sensor lag schon bei der 1080 Ti deutlich neben dem Chip und erfasst nicht das Modul selbst. Das wird hier kaum besser sein.
Die Micron Rams haben eingebaute Sensoren - aber ob das die Werte sind die angezeigt werden?

Ex3cut3r
2018-11-02, 22:37:37
Der Micron VRAM auf meiner RTX 2080 verhält sich sowieso etwas eigenartig, mit stabilen ohne Bildfehler behaften +700 im AB, kreieren ein Art Mikro Ruckeln, die aber in keinen Frametime Graphen sichtbar ist, man spürt und sieht es nur mit den eigenen Augen, runter auf Standard und es ist Butter Smooth. Hatte davor eine GTX 1070 mit GDDR5 Samsung Speicher, die haben ohne irgendwelche Nebenwirkungen +650 für 2 Jahre durchgemacht. Ich wurde mal sagen, der GDDR6 von Micron hätte eine längere Testphase benötigt, vlt. gab es Zeitdruck von Nvidia? Naja wie auch immer, in der nächsten Gen, wird der GDDR6 sowieso noch schneller werden.

hlynska
2018-11-03, 09:35:15
Die Micron Rams haben eingebaute Sensoren - aber ob das die Werte sind die angezeigt werden?Nein, sind sie nicht. EVGA klatscht eigene Sensoren drauf, leider neben dem Speicher

BeetleatWar1977
2018-11-03, 10:00:13
Nein, sind sie nicht. EVGA klatscht eigene Sensoren drauf, leider neben dem Speicher
:facepalm:



Edit - hat sich schonmal jemand getraut Furmark auf den RTX anzuwerfen? Und welche Scores kamen raus?

dildo4u
2018-11-03, 10:04:35
Furmark belastet den VRAM nicht,das ganze sollte man mit Games testen.Oder Timespy aber kein Plan wie viel VRam das in 4k belegt

SKYNET
2018-11-03, 10:04:57
:facepalm:



Edit - hat sich schonmal jemand getraut Furmark auf den RTX anzuwerfen? Und welche Scores kamen raus?


welchen score meinst? punkte oder wieviele "kacheln" auf dem desktop dann erscheinen? ;D

BeetleatWar1977
2018-11-03, 10:14:48
Furmark belastet den VRAM nicht,das ganze sollte man mit Games testen.Oder Timespy aber kein Plan wie viel VRam das in 4k belegt
??? von wegen, bei mir sinds eher die Speichertemperaturen als der Core was Schwierigkeiten macht^^

Aber da die Rambelegung nicht sehr hoch ist, sind es halt nur bestimmte Chips unter Last....


welchen score meinst? punkte oder wieviele "kacheln" auf dem desktop dann erscheinen? ;D

Made my Day!

TGKlaus
2018-11-03, 19:14:44
MF hat meine 2080 Ti Bestellung storniert, mit dem Verweis sämtliche 2080Ti "aus dem Sortiment genommen zu haben"

Was macht eigentlich die "Fachpresse" gerade?

Cyphermaster
2018-11-03, 19:21:06
Ich vermute, testen und messen. Wo ist das Problem? Glaubst du, wenn die Hintergründe der Ausfälle geklärt und ggf. Fehler beseitigt sind, wird MF die 2080Ti nicht wieder ins Sortiment nehmen? Nie, nie wieder? :rolleyes:

TGKlaus
2018-11-03, 19:27:47
MF wird kaum selbst testen.

Und wenn man etwas aus dem Sortiment nimmt muss ja wohl was total schief mit dem Produkt sein.

Und genau da erwarte ich Leistung der Fachpresse!


Hat jemand (positive) Erfahrung mit der Rückabwicklung bei Nvidia direkt?
Dort wäre die Ti direkt lieferbar.

Cyphermaster
2018-11-03, 19:35:06
Und wenn man etwas aus dem Sortiment nimmt muss ja wohl was total schief mit dem Produkt sein.Dafür reicht der Verdacht. Solange man sich nicht sicher sein kann, die Kontingente zum erwarteten Preis in erwarteter Zeit durchzusetzen = Verdienstrisiko --> raus damit. Trifft nicht nur die 2080 Ti, sondern ist übliche Handelspraxis.
Und genau da erwarte ich Leistung der Fachpresse!Wie lange braucht realistisch das Besorgen verschiedener Karten und das Durchmessen auf verschiedenen Settings (und zwar nicht blanke fps, wir reden vom Bestücken mit thermischen Sensoren, IR-Aufnahmen, Spannungsmessungen,...) + Auswertung + Artikelschreiben? Bei dir nur 24h oder wie?
Ich würde etwas Fundiertes ab Mitte kommender Woche erwarten, oder später.

Monsta
2018-11-03, 19:39:00
MF wird kaum selbst testen.

Und wenn man etwas aus dem Sortiment nimmt muss ja wohl was total schief mit dem Produkt sein.

Und genau da erwarte ich Leistung der Fachpresse!


Hat jemand (positive) Erfahrung mit der Rückabwicklung bei Nvidia direkt?
Dort wäre die Ti direkt lieferbar.

Wieso willst Du das Ding kaufen wenn da evtl. was argen ist?

BlacKi
2018-11-03, 19:39:05
??? von wegen, bei mir sinds eher die Speichertemperaturen als der Core was Schwierigkeiten macht^^

Aber da die Rambelegung nicht sehr hoch ist, sind es halt nur bestimmte Chips unter Last....
beide rambausteine müssen gleich belastet werden, da sonst die bandbreite nicht erreicht würde.


Und wenn man etwas aus dem Sortiment nimmt muss ja wohl was total schief mit dem Produkt sein.
eher die kundenbewertungen oder generell der ruf der im arsch ist wenn man nicht liefern kann. das hat nichts mit dem produkt zu tun.

Naennon
2018-11-03, 19:43:28
Ich kann nicht anderst, sorry.. ist das nun evtl der "overclockdream"? *Duckundweg*
haben sie das behauptet?

TGKlaus
2018-11-03, 19:55:12
Wieso willst Du das Ding kaufen wenn da evtl. was argen ist?

Weils nach Arbeitsschluss nun einfach mal dunkel ist, was die Freiluftaktivitäten stark einschränkt.
Und der Basteltrieb einfach da ist.


das hat nichts mit dem produkt zu tun.

Klar die Verzichten auf Umsatz und Marge wg dem Ruf.
:facepalm:

Troyan
2018-11-03, 20:09:18
Mindfactory hat keine Karten. Das machen die immer, wenn die Lieferzeit nicht bekannt ist.

Aber Troll ist Troll. Könnte ja bei den anderen Läden kaufen. ;D

Raff
2018-11-03, 20:11:43
MF hat meine 2080 Ti Bestellung storniert, mit dem Verweis sämtliche 2080Ti "aus dem Sortiment genommen zu haben"

Was macht eigentlich die "Fachpresse" gerade?

Vermutlich Überstunden abbauen. Oder einfach mal Wochenende, wie ganz normale Menschen.

MfG,
Raff

Screemer
2018-11-03, 20:11:53
Mindfactory hat keine Karten. Das machen die immer, wenn die Lieferzeit nicht bekannt ist.

Klar. Deswegen gehen Mails an Kunden raus mit dieser Begründung. Gab's imho noch nie bei MF.

Cyphermaster
2018-11-03, 20:29:19
Klar die Verzichten auf Umsatz und Marge wg dem Ruf.
:facepalm:Wegen dem Ruf der Karten momentan dürften Umsatz und Marge ziemlich minimal sein - im Gegensatz zum Risiko, den Aufwand für die RMAs tragen zu müssen, falls sich die Dinger doch als flawed rausstellen.

Troyan
2018-11-03, 20:40:55
Klar. Deswegen gehen Mails an Kunden raus mit dieser Begründung. Gab's imho noch nie bei MF.

Ich wette Kunden haben solche Mails schon öfters bekommen, wenn Mindfactory Karten temporär rausgenommen hat.

Die 2080TI ist eben arg begrenzt verfügbar.

Slipknot79
2018-11-03, 20:50:29
Bei MSI liegen ein paar TU104 und 9900K rum oO

9T_KMwrujB8


Die 2080 Ti Defekte sind auch leicht erklärt, schnell noch ein paar Bitcoins minen, sieht man bei 6min ;)

Ex3cut3r
2018-11-03, 21:10:34
Gutes Video. MSi liefert imo mit die besten Customs seit Jahren, und deren Boards sind auch immer sehr solide.

Digidi
2018-11-03, 21:34:02
Gutes Video. MSi liefert imo mit die besten Customs seit Jahren, und deren Boards sind auch immer sehr solide.
Bei der 2080ti haben sie aber bei der Kühlung versagt. Wenn 95°C Celsius für den Vram wirlich problematisch sind dann hat MSI ein Problem mit einer ihrer besten Karte.
https://www.tomshw.de/2018/09/25/msi-geforce-rtx-2080-ti-gaming-x-trio-im-test-dicke-backen-cooler-auftritt/5/

CompuJoe
2018-11-03, 21:45:26
In meinem Bekanntenkreis gibt es nun auch eine defekte FE.
BSOD und anschließend beim POST ein Matsch aus Sonderzeichen, Buchstaben und Zahlen meinte er vor ca. 30 Minuten per Whats App.

Bin gespannt wann der erste Kunde zu uns in den Laden kommt, von den 5 FE Karten die wir hatten sind 4 in Komplett PCs über die Ladentheke gegangen.

Es geht um die FE Ti

dargo
2018-11-03, 21:46:00
Bei der 2080ti haben sie aber bei der Kühlung versagt. Wenn 95°C Celsius für den Vram wirlich problematisch sind dann hat MSI ein Problem mit einer ihrer besten Karte.
https://www.tomshw.de/2018/09/25/msi-geforce-rtx-2080-ti-gaming-x-trio-im-test-dicke-backen-cooler-auftritt/5/
Schon erstaunlich, dass der Speicher 18°C wärmer wird als die GPU.

horn 12
2018-11-03, 22:04:45
Nun RTX 2080 oder TI

Diesesmal kommt Nvidia wohl nicht ungeschoren davon...
Sollten Stellung beziehen bevor der Shitstorm losgetreten wird.

Dural
2018-11-03, 22:58:52
Weis jamand was gddr6 verbraucht?

cR@b
2018-11-03, 23:00:08
MF hat meine 2080 Ti Bestellung storniert, mit dem Verweis sämtliche 2080Ti "aus dem Sortiment genommen zu haben"

Was macht eigentlich die "Fachpresse" gerade?

Hast Du die Email? Würde ich echt gerne mal sehen. Kann das eigentlich kaum glauben, nachdem sie heute noch eine Karte auf der Seite im Angebot hatten.

Cyphermaster
2018-11-03, 23:07:28
Der Speicher ist eine Sache. Die Fragen, ob da nicht noch ein paar Watt / Grad durch die Stromversorgung in dem Bereich extra dazu kommen, und wie gut wirklich die Wärmeabfuhr gestaltet ist, kommen da noch oben auf. Steht der Topf auf der Herdplatte, kriegt man durch Pusten die Suppe trotzdem nicht wirklich kalt.

Dural
2018-11-03, 23:11:32
Naja auf dem wärmebild der msi sieht man schön das die 11 speicher chips wärmer sind als alles andere. Das lässt sich kaum nur durch die strom versorgung begründen.

Edit:
PCWelt hat ein video auf youtube wo sie sagen das ihnen nv die 2080ti für anfang august (start) versprochen hat, da die karte bis heute kaum lieferbar sind, ist da doch arg was schief gelaufen.

Theorie:
Der micron speicher wird wärmer als gedacht, nv hat das erst relativ spät mitbekommen, da die ersten ES karten samsung gddr6 drauf hatten. :)

BeetleatWar1977
2018-11-04, 00:22:52
Schon erstaunlich, dass der Speicher 18°C wärmer wird als die GPU.

Und das war auf der Gegenseite der Platine......

hlynska
2018-11-04, 02:19:50
Edit:
PCWelt hat ein video auf youtube wo sie sagen das ihnen nv die 2080ti für anfang august (start) versprochen hat, da die karte bis heute kaum lieferbar sind, ist da doch arg was schief gelaufen.Absehbar. Als NDA-Verweigerer gab es halt die erwähnten Konsequenzen. Irgendwann nachträglich sind sie allerdings dann doch eingeknickt.

BlacKi
2018-11-04, 03:11:33
Absehbar. Als NDA-Verweigerer gab es halt die erwähnten Konsequenzen. Irgendwann nachträglich sind sie allerdings dann doch eingeknickt.
alsob nv die rma einfach so inkauf nehmen würde die die karten angeblich so produzieren. absicht steckt bei den FE definitiv nicht dahinter. was eine fehler seitens nv nicht ausschließt.

ich meine, was hilft ein fucking nda gegen RMA einlieferungen? nda hin oder her, das hat nichts mit dem thema zu tun.

Dural
2018-11-04, 11:23:26
Was hat eine verzögerung einer grafikkarte mit dem nda zu tun?

Ex3cut3r
2018-11-04, 17:48:20
Der Micron VRAM auf meiner RTX 2080 verhält sich sowieso etwas eigenartig, mit stabilen ohne Bildfehler behaften +700 im AB, kreieren ein Art Mikro Ruckeln, die aber in keinen Frametime Graphen sichtbar ist, man spürt und sieht es nur mit den eigenen Augen, runter auf Standard und es ist Butter Smooth. Hatte davor eine GTX 1070 mit GDDR5 Samsung Speicher, die haben ohne irgendwelche Nebenwirkungen +650 für 2 Jahre durchgemacht. Ich wurde mal sagen, der GDDR6 von Micron hätte eine längere Testphase benötigt, vlt. gab es Zeitdruck von Nvidia? Naja wie auch immer, in der nächsten Gen, wird der GDDR6 sowieso noch schneller werden.

Mal ein Update, mit +600 verschwindet das "Micro Ruckeln" Bei +700 wird wohl irgend eine Korrektur am laufen sein? Was auch witzig ist, mein Chip kann nicht 2040-2025 in Games Stabil halten, erst knapp unter 2 ghz bleiben die CTD aus. Und ich dachte das liegt immer am VRAM, das kommt davon, wenn man beides gleichzeitig übertaktet. :biggrin:
Ist ein A Chip also eigentlich die besseren. Mit OC + 70 @ 1995 Mhz und +600 für den VRAM @ 122% PT sind 307W. Und die werden tatsächlich sehr oft erreicht in Games @ 3440x1440, weiß nicht, ob die Abwärme + lauteren Lüfter der Gewinn von rund 10% Wert ist. Also schon etwas enttäuschend imo, aber das ist auch mein "Glück" irgendwie ziehe ich immer die Krücken, egal ob CPU, GPU, RAM.

Naja, was solls, für 2 Jahre wird reichen, dann kommt eine 3080 oder 3080 Ti rein. Bei den neuen Konsolen, wird dann auch die CPU ausgetauscht, und irgendwas mit 8 Kernen und 16 Threads geholt. Am liebsten mit hoher Single Thread Leistung und sehr schnellen RAM, mal sehen ob es 2021 so weit ist.

Freestaler
2018-11-04, 18:12:35
haben sie das behauptet?
Ne, nur "Build to overclock", der Traum jedes OEM Käufers, ich lass alles standard käufers halt..hatten wir doch schon in dem Thread.. hier die präsenationsfolie dazu..
https://wccftech.com/nvidia-geforce-rtx-series-is-purpose-built-for-oc-will-be-quiet-as-a-whisper/

Raff
2018-11-04, 18:31:54
Auf diesen mittlerweile gebtsmühlenartigen Versprechen herumzureiten ist ungefähr so, als kreidete man dem Hersteller der Milchschnitte an, dass sie mit "Enthält viel gesunde Milch!" werben. Das ist Geblubber, das man nicht ernst nehmen muss. Der Preis hingegen ist handfest.

MfG,
Raff

Freestaler
2018-11-04, 19:16:14
Auf diesen mittlerweile gebtsmühlenartigen Versprechen herumzureiten ist ungefähr so, als kreidete man dem Hersteller der Milchschnitte an, dass sie mit "Enthält viel gesunde Milch!" werben. Das ist Geblubber, das man nicht ernst nehmen muss. Der Preis hingegen ist handfest.

MfG,
Raff war ja auch in einem sarkastischen Post zur Situation mit den Ausfälle die zumindest im moment ja auch mit den Temps zu tun haben könnten, gepostet (oc und temp zusammenhang ist wohl klar). Und mMn. hat er gepasst. Und ist nicht das gleiche wie mit Milchschnitte und Milch. Erst wenn da z.b. Giftstoffe im Milchersatz gibt.

Oder willst du nun sagen, dass du nicht verstehen kannst, das man Marketingsprüche hoch nimmt, wenn ein Produkt versagt mit diesen Attributen?

Stretcher
2018-11-04, 19:25:25
Hast Du die Email? Würde ich echt gerne mal sehen. Kann das eigentlich kaum glauben, nachdem sie heute noch eine Karte auf der Seite im Angebot hatten.

Die Mail hat er sich bestimmt selbst geschrieben.:rolleyes:

Radeonfreak
2018-11-04, 19:27:26
3 Wochen läuft sie schon und immer noch wie am ersten Tag. Bin ganz stolz. :usweet:

RoughNeck
2018-11-04, 20:06:48
Wie verhält sich die Gigabyte eigentlich so, also Temp, Lautstärke und Boost?

Radeonfreak
2018-11-04, 20:15:10
Boost konstant bei 2GHZ. Lautstärke eher so leises Rauschen aus dem Case unter Volllast, nicht wirklich störend. Temperatur hab ich maximal 80 ° eingestellt, bewegt sich so bei Spielen, derzeit AC Odyssey bei ca. 77°.

Digidi
2018-11-04, 20:41:03
Auf diesen mittlerweile gebtsmühlenartigen Versprechen herumzureiten ist ungefähr so, als kreidete man dem Hersteller der Milchschnitte an, dass sie mit "Enthält viel gesunde Milch!" werben. Das ist Geblubber, das man nicht ernst nehmen muss. Der Preis hingegen ist handfest.

MfG,
Raff

Gabs da nicht ein Gerichtsurteil das solche Werbung verboten Ist? So wird das mal wieder verhamlost.

PrivateCeralion
2018-11-05, 02:01:39
Betrifft das Problem der 2080ti nur die Founder Editions? Ich würde gerne 8 Karten für die Arbeit kaufen, sie kommen alle in einem Server unter Wasser. Ist es sicher gestellt, das es an der Hitze liegt?

crux2005
2018-11-05, 02:56:12
Betrifft das Problem der 2080ti nur die Founder Editions? Ich würde gerne 8 Karten für die Arbeit kaufen, sie kommen alle in einem Server unter Wasser. Ist es sicher gestellt, das es an der Hitze liegt?

Nein. Auch Custom Ti's wurden Reklamiert. Was die Ursache ist kann dir leider keiner sagen.

dildo4u
2018-11-05, 06:03:46
Es werden immer Karten reklamiert ohne die Quote der Ausfälle zu kennen kann man keine Aussagen dazu treffen welche Modelle ok sind.

Razor
2018-11-05, 06:47:30
Ist ein A Chip also eigentlich die besseren. Mit OC + 70 @ 1995 Mhz und +600 für den VRAM @ 122% PT sind 307W. Und die werden tatsächlich sehr oft erreicht in Games @ 3440x1440, weiß nicht, ob die Abwärme + lauteren Lüfter der Gewinn von rund 10% Wert ist. Also schon etwas enttäuschend imo, aber das ist auch mein "Glück" irgendwie ziehe ich immer die Krücken, egal ob CPU, GPU, RAM.
Hmmm... Du solltest Deine Sig mal korrigieren :)

Weiterhin
- GPU: +70 auf 1925 = +3,6%
- RAM: +600 auf 7000 = +8,5%
Wie sollen da 10% Mehrperformance heraus kommen?
Das dürfte dann doch eher am erhöhten PT mit +22% liegen.
Und welche Karte hat einen Base-Boost von 1925MHz :confused:

Sorry, aber "lohnen" tut sich dieser Unfug, den Du da treibst, ganz sicher nicht.

Razor

Ex3cut3r
2018-11-05, 08:19:28
Hmmm... Du solltest Deine Sig mal korrigieren :)

Weiterhin
- GPU: +70 auf 1925 = +3,6%
- RAM: +600 auf 7000 = +8,5%
Wie sollen da 10% Mehrperformance heraus kommen?
Das dürfte dann doch eher am erhöhten PT mit +22% liegen.
Und welche Karte hat einen Base-Boost von 1925MHz :confused:

Sorry, aber "lohnen" tut sich dieser Unfug, den Du da treibst, ganz sicher nicht.

Razor

Tja. Glaub es oder glaub es nicht, mit 300W PT und +70 boostet die Karte auf knapp 2gHz sind 1995 mhz.

Dural
2018-11-05, 09:16:28
Ne, nur "Build to overclock", der Traum jedes OEM Käufers, ich lass alles standard käufers halt..hatten wir doch schon in dem Thread.. hier die präsenationsfolie dazu..
https://wccftech.com/nvidia-geforce-rtx-series-is-purpose-built-for-oc-will-be-quiet-as-a-whisper/

Das ist auf die Stromversorgung bezogen, und die ist eigentlich auch recht OK.

Mangel76
2018-11-05, 11:16:30
Das ist auf die Stromversorgung bezogen, und die ist eigentlich auch recht OK.

Also "build to overclock" bezieht sich nur auf die Stromversorgung? Was nützt mir denn eine OC-Stromversorgung, wenn der Rest der GraKa nicht zu übertakten ist? Muss man so einen Quatsch auch noch rechtfertigen?

Wenn eine Grafikkarte mit OC-Fähigkeiten beworben wird, dann müssen sämtliche Teile diese Fähigkeiten haben! Alles andere wäre Kundentäuschung.

Dural
2018-11-05, 14:59:00
Ja ich würde vorschlagen das NV gleich bei jeder Karte noch ein 1500Watt Netzteil und 100Liter LN2 dazu legt, wäre definitiv sinnvoll. :freak:

Noch mal es ist auf die Spannungsversorgung bezogen, das ein LuKü gewisse Grenzen hat weis jeder, erst recht in der Zeit wo jedes dB lauter eine Katastrophe ist.

Ich gehe sogar soweit und behaupte das die Karte mit einem Radial Kühler weniger Probleme hätte, da die kühle Luft vom Lüfter zuerst über die SPW und Speicher und erst danach über die GPU und aus dem Gehäuse gehen würde. Natürlich wäre die Karte dafür aber halt lauter.

Ich sage schon länger das man den ATX Standard mal anpassen müsste, den dieser wurde nie für Grafikkarten mit 250W+ gemacht.

Lowkey
2018-11-05, 15:36:08
Wenn man aktuell eine 2080 für weniger als eine 1080 Ti bekommen würde, wie verhält es sich mit den 8gb vs 11gb?

Gibt es noch klare Beispiele, wo die 1080 Ti wegen den 11gb abgeht?

TwoBeers
2018-11-05, 15:52:10
Gibt es noch klare Beispiele, wo die 1080 Ti wegen den 11gb abgeht?

Wenn ein Spiel mehr als 8GB VRAM benötigt, dann wird es auf der 1080 Ti wohl besser laufen.
Nur momentan ist das eher theoretischer Natur, man kann bisher jedes Game auf unter 8GB drücken und es sieht wohl trotzdem so aus, wie alles voll aufgedreht (Shadow of War z.B.).

Wenn in Zukunft irgendwann mal Spiele kommen, die dann auch wirklich mehr als 8GB zwingend benötigen (neue Konsolengeneration?!), dann hat die 1080 Ti einen Vorteil. Oder aber die Spiele benötigen dann auch alle einen Raytracing Teil, dann hätte die 2080 einen Vorteil. ;)

Ich würde wegen Raytracing eher zur 2080 greifen, wenn sie gleich viel kostet oder günstiger ist.

Cubitus
2018-11-05, 16:07:10
Es werden immer Karten reklamiert ohne die Quote der Ausfälle zu kennen kann man keine Aussagen dazu treffen welche Modelle ok sind.

Da hab ich ja jetzt eine richtige Perle.
Meine 2080ti Fe lief mit vollem PT+curve Bei 85 Grad dauerhaft bei 5 Tagen LAN!!
Die Karte ist nicht kaputt gegangen, was mache ich falsch :confused:

HisN
2018-11-05, 16:16:35
Wenn in Zukunft irgendwann mal Spiele kommen, die dann auch wirklich mehr als 8GB zwingend benötigen (neue Konsolengeneration?!)

Das tolle ist doch dass man am PC Regler hat.
Ich kann Dir heute schon Games nennen die 12GB überfüllen, und trotzdem mit 2GB Karten laufen. Muss man halt Textur-Auflösung und Anti-Aliasing runterstellen.

Du meinst also der Zeitpunkt in zig Jahren wenn ein Game auf LOW mehr als 8GB VRAM braucht um zu starten? Wie viele Jahre denkst Du voraus? 10?

Dural
2018-11-05, 16:36:39
Sorry aber das ist doch immer ein Widerspruch in sich, jeder der eine Grafikkarte für die "Zukunft" kauft macht einen Fehler wenn er JETZT eine 12/16nm GPU kauft. Erst recht wenn da eine Pascal GPU drauf ist...

Da sollte man viel lieber eine Übergangs GPU kaufen mit 8GB und gut ist. Den selten hat ein warten auf neue GPUs so viel Sinn gemacht wie jetzt: 7nm, wahrscheinlich auch mehr Speicher, bei Karten die ca. die hälfte noch verbrauchen + ziemlich sicher deutlich mehr RT Leistung. :cool:

TwoBeers
2018-11-05, 16:39:34
Du meinst also der Zeitpunkt in zig Jahren wenn ein Game auf LOW mehr als 8GB VRAM braucht um zu starten? Wie viele Jahre denkst Du voraus? 10?

Quasi. ;D

Atma
2018-11-05, 16:55:30
Da sollte man viel lieber eine Übergangs GPU kaufen mit 8GB und gut ist. Den selten hat ein warten auf neue GPUs so viel Sinn gemacht wie jetzt: 7nm, wahrscheinlich auch mehr Speicher, bei Karten die ca. die hälfte noch verbrauchen + ziemlich sicher deutlich mehr RT Leistung. :cool:
Bleibt noch die Preisfrage. AMD versucht die DIEs bei 7 nm klein zu halten weil sich die Kosten gegenüber 14/16nm verdoppeln:

https://pics.computerbase.de/8/5/2/2/2/1-1080.3414184549.png

Dural
2018-11-05, 17:01:32
Teuer wird es sicherlich, und zwar teurer als aktuell mit Turing.

Dafür sollte man mit so einer Karte 3-4 Jahre Ruhe haben.

Atma
2018-11-05, 17:47:01
Dafür sollte man mit so einer Karte 3-4 Jahre Ruhe haben.
Das muss sich erst zeigen. Kann mir nicht vorstellen, dass AMD und Nvidia bei der ersten 7nm Generation All In gehen.

Lowkey
2018-11-05, 18:40:42
Es gibt doch keine Zukunftsicherheit oder Übergangskarte. Alles ist in der Schwebe und nicht vorhersehbar. Ob ich Pascal oder Turing im Rechner habe ist egal, denn es kommen am Ende nur FPS heraus. Und wenn wieder was Neues kommt, dann wird gewechselt oder nicht. Pascal ist für mich einfach nicht veraltet wie damals Maxwell. Turing ist und bleibt schneller und teurer, aber nicht grundlegend besser. Ich bin auf RT in BF V in 3 Wochen gespannt.

Dural
2018-11-05, 19:32:38
Du widersprichts dich selber, maxwell ist parktisch das selbe wie pascal, halt 28nm gegen 16nm.
Turing ist dafür wirklich was neues.

Man kann durchaus inteligent einkaufen, in den letzten 20 jahre gibt es einige karten die das gezeigt haben.

TobiWahnKenobi
2018-11-05, 20:07:05
turing ist hier bei mir noch keine 4 wochen alt und ich finde das teil schon langweilig. wird echt zeit, dass da mal was kommt, das entweder weihrauch auf die karte sprüht oder etwas, das zeigt, dass man zwei davon haben muss.


(..)

mfg
tobi