PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 2080/Ti Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 [18] 19

aufkrawall
2020-02-16, 20:18:20
Bleibt nur zu hoffen, daß NV dieses tote Pferd jetzt nicht aus Sturrheit noch lange reiten will.
Nochmal: DLSS "2.0" in Wolfenstein YB ist deutlich besser als das in Control, das auch schon deutlich besser als in anderen Spielen war.
PCGH und HU sind sich da ziemlich einig, und HU hatte DLSS "1.0" auch noch zurecht völlig zerrissen.

hq-hq
2020-02-16, 22:22:07
Igor hatte es mal gut zusammengefasst, ist natürlich schon länger her:

"Radeon Image Sharpening vs. Nvidia DLSS vs. Nvidia Sharpening"
https://youtu.be/RDaEnQ9ftIo

Blaire
2020-02-17, 00:34:03
Nochmal: DLSS "2.0" in Wolfenstein YB ist deutlich besser als das in Control, das auch schon deutlich besser als in anderen Spielen war.
PCGH und HU sind sich da ziemlich einig, und HU hatte DLSS "1.0" auch noch zurecht völlig zerrissen.

Ich gebe generell wenig auf externe Vergleiche, da stets subjektives Empfinden des jeweiligen Testers zugrunde liegt. Mach dir selber ein Bild davon und urteile nicht anhand von eins/zwei Szenenvergleichen oder Screenshots, man muss das gesamt betrachten und nicht nur wenige ausgesuchte Stellen.
Hardware Unboxed haben damals schon verschwiegen daß DLSS 4K mit Raytraced GI um 40-50% mehr Leistung ermöglicht oder mit 1800p verglichen, ohne dabei die Leistungskosten mit RT-Settings zu berücksichtigen. Quasi total am Thema vorbei, wofür DLSS eigentlich gedacht ist. ;)
Battle(non)sense-Werte zeigen das viel besser auf.
https://youtu.be/nTRLoeGwe5E?t=198
Wenn ich jetzt Wolfenstein: Youngblood nehme, ist eine RTX 2080Ti auch so schon in der Lage 4K bei 60fps darzustellen... da ist DLSS also kein Muss, als Option für höhere Bildraten aber sicherlich nicht verkehrt.

Badesalz
2020-02-17, 18:48:16
Nochmal: DLSS "2.0" in Wolfenstein YB ist deutlich besser als das in Control, das auch schon deutlich besser als in anderen Spielen war.
PCGH und HU sind sich da ziemlich einig, und HU hatte DLSS "1.0" auch noch zurecht völlig zerrissen.Ah? :eek: Die haben RIS gesehen und draus DLSS 2.0 gemacht? Hab ich garnicht mitgekriegt :frown: Dann ist ja alles im Lot :smile:

@hq-hq
Ohne Upscaling macht RIS sich weiterhin am besten. Ist auch primär dazu gedacht 1080p bisschen wie 1440p aussehen zu lassen. Und 1440p kleinwenig wie UHD. Ich sehe kein TopEnd Feature daran, aber es funzt echt gut, ist quasi for nothing und verbessert den Eindruck feststellbar.

NV sharpening geht nicht. Sowas hab ich ne Weile mit meinem ersten RAW-Entwickler veranstaltet bis ich begriffen habe worauf es beim Schärfen wirklich ankommt.

DLSS ist entweder Matsche oder kommt brauchbar mit Upscaling (das Video). Ohne, ist es halt Matsche.

aufkrawall
2020-02-17, 18:55:33
Dein Vergleich ist käse: DLSS soll in Wolf YB gleichwertig bis leicht besser aussehen vs. nativ. Upscaling + bloßes Sharpen fällt dagegen von der Qualität deutlich ab. Erst recht, wenn ein vergleichbarer Performance-Gewinn angepeilt wird. Es ist also kein Ersatz. Einfach mal akzeptieren, auch wenn einem als Fanboy das schwer fällt.

Davon ab gibts im NV-Treiber genau so Sharpen (+ Upscaling). Im Gegensatz zu dem schrottigen AMD-UI verschwindet das sogar nicht einfach unerklärlich für einzelne Profile. :eek:

Badesalz
2020-02-17, 19:05:46
Kein Thema. Nur, warte mal... Du weisst es nicht, weil "DLSS soll in Wolf YB...", und ich soll es einfach akzeptieren? Ist das so von "Fanboy" zu "Fanboy" oder was machen wir hier grad?

Davon ab ist RIS eine der wenigen Sachen die sofort greifen. Über eine ganze Schubkarre anderer, könnte ich direkt einen Rant verfassen. Komm mir also nicht mit dieser stumpfsinniger "Fanboy" Keule. Es gibt echt nichts armseligeres als Leute die diesen Shice benötigen um ihre schlechten Fechtkünste zu überspielen.

aufkrawall
2020-02-17, 19:59:14
Das kann man sicherlich in Zukunft mal anekdotenhaft zitieren. :cool:

Ex3cut3r
2020-02-17, 20:11:01
Was ist denn an RIS so besonders? Das Gab schon 2012 mit SweetFX und Lumasharpen. Brauchte man auch damals schon fürs FXAA und die ersten TAA Games.

aufkrawall
2020-02-17, 20:19:45
RIS sieht schon ganz gut aus und andere "adaptive" Sharpen Filter waren bislang deutlich teurer. Es ist aber halt trotzdem nur ein Sharpen Filter, der nicht besser ist als der von NV im Treiber.

Badesalz
2020-02-17, 20:35:19
Was ist denn an RIS so besonders? Das Gab schon 2012 mit SweetFX und Lumasharpen. Brauchte man auch damals schon fürs FXAA und die ersten TAA Games.Ich glaub das einzige besondere (warum muss es besonders Besonders sein?) ist, daß es einen sichtbaren Nutzen hat ohne übertrieben zu wirken. Alles bisher in die Richtung wirkte halt irgendwie übertrieben. Und kostete auch sprübar Leistung.

Angedachtes Nutzungsprofil wohl wie von mir erwähnt. Mehr ist das imho auch nicht. Die PS5 wird das zu 99.99% fahren.

Es ist aber halt trotzdem nur ein Sharpen Filter, der nicht besser ist als der von NV im Treiber.Reden wir jetzt von Linux oder Windows aufkrawall? Das sieht man schon auf Igors Video wie sich das unterscheidet. Hast du vielleicht -5 Dioptrien? Oder +5? :uponder:

Anekdoten könne wir später mal machen. Ich werd da aber mit Sicherheit nicht als Fanboy auftauchen :)

edit:
So denne. Eh OT. DLSS 2.0 interessiert mich dann schon eher. Wenn wer paar gute Links hat.

aufkrawall
2020-02-17, 20:45:12
Informier dich mal richtig, bevor du dummes Zeug erzählst. Nuff said.

Badesalz
2020-02-17, 20:49:04
Oh. Schön. Du hast ein Problem. Bis zum Verlust der Muttersprache gar :wink:

Ich hab keins. Daher bis denne, no-eyes Informator.

aufkrawall
2020-02-17, 21:47:28
Der Nvidia-Filter im Treiber ist nicht der alte Filter, den es schon vor RIS in Freestyle gab. Der neue Filter sieht wesentlich besser aus und kann so angepasst werden, dass er quasi genau so wie RIS aussieht. Dabei ist er auch noch genauer einstellbar als RIS und ermöglicht ebenfalls zusammen mit GPU-Upscaling genutzt zu werden.

Und sorry, du bist ja bezüglich DLSS in Wolf 2 ziemlich auf dem Holzweg. HU hat mehrere Beispiele demonstriert, wo es eindeutig gut aussieht und jede Menge Leistung bringt. Wieso maßt du es dir an, es besser zu wissen, der es noch nie selbst in Aktion gesehen hat?

Lanicya
2020-02-17, 21:55:19
So, wer möchte kann hier sein Glück versuchen. :biggrin:

Nvidia stellt Geforce RTX 2080 Ti Cyberpunk 2077 Edition vor (https://www.gamestar.de/artikel/nvidia-rtx-20-edition-cyberpunk-2077,3354380.html)





gruß

hq-hq
2020-02-17, 22:29:28
hm, wollte in Greedfall aktuelles NVidia sharpening mit AMD RIS vergleichen, sollte sich bei AMD RIS nicht unter Anzeigeoptionen aktivieren lassen - soll ja seit einiger Zeit auch mit ner RX580 funktionieren... nur da gibt's nix - ist das an einen Windows Patchstand gebunden? (adrenalin-2020-edition-20.2.1-feb3)

aufkrawall
2020-02-17, 22:35:54
Ist in die Grafik bzw. Profiloptionen gewandert. Kann, wie vorher erwähnt, aber aus unerfindlichen Gründen einfach in manchen Profilen fehlen und wird dann auch global dafür nicht übernommen:
https://abload.de/thumb/1jvj4v.png (https://abload.de/image.php?img=1jvj4v.png)
Grund ist wahrscheinlich pure Doofheit im AMD-Treiberteam.

hq-hq
2020-02-17, 23:18:01
jupp gefunden, funktioniert auch und ich sehe erstmal keinen Unterschied zum NVidia Sharpening.... also auf den Screenshots sieht man es nicht wirklich, auch bmp Bilder spiegeln es nicht wieder (AfterBurner Screenshot) - Greedfall profitiert davon, würde es nicht mehr ohne spielen :biggrin:

-> Screenshots nehmen das Bild immer ohne Sharpening auf, man muss es abfotografieren.

am Rande: obwohl die Grafik in den Menüs maximiert ist und die Texturfilterung bei beiden Grafikkarten auf "hoch" (16x AF) eingestellt ist sieht es bei der RX580 ab und zu schlechter aus, Beispiel:

https://abload.de/img/amd_nvidia_greedfallf6kw9.png

x-force
2020-02-18, 00:20:29
du meinst die steinwand?
das sind ja fast 90°
unter dem winkel sollte es auch mit billig af keine probleme geben

crux2005
2020-02-18, 02:10:12
Ist ein Leicht anderer Winkel bei der GeForce.

https://i.imgur.com/Ly3PZZl.png

Badesalz
2020-02-18, 06:26:40
Solange an der Stelle rumgehampelt bis es seinem Plan entsprach :ulol:

@aufkrawall
Jou. Das Video von Igor ist von 07.2019 (?) Ok hab nicht erwartet, daß sich da seitdem soviel getan hat... Ich halte das aber wie gesagt auch für ein Feature des kleinen Mannes. Am besten kommt das halt in 1080p wo es einen leichten Auflösungseindruck von 1440p entwickelt.
Schätze also wie gesagt, daß es bei der PS5 unterhalb 4k ab Werk immer an sein wird.

Ok. Weiter im OnT Programm ;)

BlacKi
2020-02-18, 09:34:06
-> Screenshots nehmen das Bild immer ohne Sharpening auf, man muss es abfotografieren.

auf meinen yt videos sieht man ziemlich deutlich den unterschied vom sharpening effekt, kein wunder bei nem wert von 70%. wundert mich, das es bei den screenshots nicht wirkt. ich finde es schade das man RIS nicht selbst konfigurieren kann. ich habs gerne etwas stärker.

Lowkey
2020-02-18, 10:17:57
Wolcen ist wieder ein Beispiel, wie die 2000er Karten den Abstand zu den 1000er Karten vergrößern.

https://www.techpowerup.com/review/wolcen-benchmark-test-performance-analysis/4.html

dildo4u
2020-02-18, 11:13:03
1080 Ti sieht noch sehr gut aus im Prinzip haste + 20% in 3 Jahren mit der 2080 Super wohl eher super Mager.

hq-hq
2020-02-18, 12:11:25
Hab nur den Spielstand einmal am NVidia Pc und einmal am AMD PC geladen, der Torbogen ist bei der RX580 vermatscht.

Da steckt keine Intention dahinter, wollte das Sharpening vergleichen.
AB nimmt das Bild bei mir vor der Sharpening "Nachbearbeitung" auf.

Bei RIS kann man einen Regler verstellen, müsste von 0-100% gehen, Standard ist 80%

Raff
2020-02-18, 12:12:29
PCGH hat Wolcen mit 22 Grafikkarten seit 2013 getestet: https://www.pcgameshardware.de/Wolcen-Lords-of-Mayhem-Umbra-Spiel-40464/Specials/Benchmark-Tuning-Tipps-1343438/

AMD ist auffällig stark - und zwar alle GCN-Chips. Navi daher in Relation weniger.

MfG
Raff

gnomi
2020-02-18, 14:59:17
So, wer möchte kann hier sein Glück versuchen. :biggrin:

Nvidia stellt Geforce RTX 2080 Ti Cyberpunk 2077 Edition vor (https://www.gamestar.de/artikel/nvidia-rtx-20-edition-cyberpunk-2077,3354380.html)





gruß

Sieht schon prima aus. =)

1080 Ti sieht noch sehr gut aus im Prinzip haste + 20% in 3 Jahren mit der 2080 Super wohl eher super Mager.

Ich finde das schon beachtlich.
Ist ja keine neue Engine oder irgend etwas mit besonderen Features.
Außerdem ist die 2080TI ja der direkter Nachfolger.
Und die ist knapp 50% schneller.
Allerdings nur bei TechPowerUp. Bei PCGH sind es nur noch 30%, da OC Modell.
Letztendlich kann man trotzdem bequem die Generation auslassen mit so einer tollen Karte. Das stimmt schon. Gilt aber auch noch für die 1080 bei Auflösungen bis WQHD maximal.
Pascal bleibt gut. Aber Turing ist doch jetzt zunehmend besser muss man fairerweise sagen.

@ DLSS & RTX
Scheinbar gucken wenige das DLSS Video oder spielen noch besser schon mit RTX GPU's.
Da ist die Diskussion dann imho auch ein bisschen überflüssig jetzt.
Hoffentlich kommen mittelfristig weiter so positive Beispiele wie Youngblood. Und am besten dann zum Release, und nicht wieder nachgeschoben.

SKYNET
2020-02-18, 16:11:01
Sieht schon prima aus. =)



Ich finde das schon beachtlich.
Ist ja keine neue Engine oder irgend etwas mit besonderen Features.
Außerdem ist die 2080TI ja der direkter Nachfolger.
Und die ist knapp 50% schneller.
Allerdings nur bei TechPowerUp. Bei PCGH sind es nur noch 30%, da OC Modell.
Letztendlich kann man trotzdem bequem die Generation auslassen mit so einer tollen Karte. Das stimmt schon. Gilt aber auch noch für die 1080 bei Auflösungen bis WQHD maximal.
Pascal bleibt gut. Aber Turing ist doch jetzt zunehmend besser muss man fairerweise sagen.

@ DLSS & RTX
Scheinbar gucken wenige das DLSS Video oder spielen noch besser schon mit RTX GPU's.
Da ist die Diskussion dann imho auch ein bisschen überflüssig jetzt.
Hoffentlich kommen mittelfristig weiter so positive Beispiele wie Youngblood. Und am besten dann zum Release, und nicht wieder nachgeschoben.

pascal ist noch sehr gut unterwegs, meine 1080Ti taktet nochmals 165/1720MHz höher als bei PCGH... darum sehe ich auch nicht ein warum ich auf turing wechsel sollte, ne 2080S macht meine xtreme in den meisten games immernoch platt, und der abstand auf die 2080Ti ist +/- 20%... und da sich turing so "toll" takten lässt, vergrösstert sich der abstand von ner 2080Ti FE / custom mit OC um maximal lächerliche 5%... und klar gibts ausreisser wo die 2080Ti auf einmal 40% schneller ist, aber gibt auch ausreisser in die andere richtung...

darum ist turing für mich derzeit das langweiligste stück hardware zum kaufen... geschenkt würde ich sie natürlich schon nehmen, aber 500€ aufpreis zur meiner 1080Ti wenn ich die verkaufen würde, für 20% mehrleistung, nene...

Raff
2020-02-18, 16:23:05
Eine RTX 2080 Ti kann man auch schönrechnen übertakten, bis jeder Transistor heult -> 40 Prozent Leistungsplus. ;)

MfG
Raff

SKYNET
2020-02-18, 16:38:38
Eine RTX 2080 Ti kann man auch schönrechnen übertakten, bis jeder Transistor heult -> 40 Prozent Leistungsplus. ;)

MfG
Raff

na dann zeige mir mal ne luftgekühlte 2080Ti die sich toll takten lässt... soll ich dir all die reviews raussuchen?

selbst mit chiller is da schnell ende im gelände wie man bei igor sehen kann, 40% leistungsplus ist eine utopie(sowas gabs zuletzt bis ca. 2013 bei den grakas), mit chiller liegen 15% drinne bei 20°c... ne 1080Ti mit chiller sieht da schon besser aus, da liegen dann echte 30% drinnen... erstrecht wenn man eine mit guten speicher erwischt wie ich sie habe. ;)

weiterer vorteil bei pascal ist, die graka kann theoretisch unendlich power ziehen bis das netzteil anfängt zu brennen, shunk-mod sei dank, bei turing wird das via bios restriktiv von NV unterbunden...

MartinRiggs
2020-02-18, 16:50:55
Du drehst dir auch immer alles so wie es dir passt.:rolleyes:
Fakt ist das die Pascal in neueren Games teilweise gar nicht so gut aussehen, auch die 1080Ti.

Bei AMD ist es ein Vorteil wenn strikt gedrosselt wird(Ryzen) hier ist jetzt Turing scheisse weil das Bios schlimmeres verhindert.
Finde den Fehler......

Ein bisschen weniger Bias würde dir gut tun.

Schnoesel
2020-02-18, 17:05:14
Fakt ist, dass es auch neuere Games gibt in der ne 2080Ti nichtmal 30% vor ner 1080Ti liegt. Ist ja nicht so, dass in jedem neuen Game Pascal absolut abkackt. Tendenziell ist das natürlich eher der Fall wenn DX12 oder low level im Spiel ist, aber das ist ja klar, dass man Turing Low level gepuscht hat ist es doch Vorraussetzung von RTX.

Wer ne 1080Ti hat braucht imo keine 2080Ti zumindest nicht für den Preis.

Wenn ich mir folgende Games ansehe ist da keine Mehrleistung dabei die mich von einem Kauf überzeugen würde:

https://www.pcgameshardware.de/Wolcen-Lords-of-Mayhem-Umbra-Spiel-40464/Specials/Benchmark-Tuning-Tipps-1343438/2/
https://www.pcgameshardware.de/Detroit-Become-Human-Spiel-56278/Specials/PC-Test-CPU-GPU-Benchmark-1339541/
https://www.pcgameshardware.de/Zombie-Army-4-Spiel-67704/Specials/Benchmark-Test-PC-Steam-Release-Uncut-1343125/
https://www.pcgameshardware.de/Monster-Hunter-World-Spiel-61072/Specials/Iceborne-Benchmark-Test-Tuning-Tipps-1340940/

Alles Games die kürzlich erschienen sind.

SKYNET
2020-02-18, 17:11:31
Du drehst dir auch immer alles so wie es dir passt.:rolleyes:
Fakt ist das die Pascal in neueren Games teilweise gar nicht so gut aussehen, auch die 1080Ti.

Bei AMD ist es ein Vorteil wenn strikt gedrosselt wird(Ryzen) hier ist jetzt Turing scheisse weil das Bios schlimmeres verhindert.
Finde den Fehler......

Ein bisschen weniger Bias würde dir gut tun.


nö, bei ryzen isses genau so kacke das der nicht soviel ziehen darf wie ich will...

bei zen+ gabs das hässliche limit noch nicht, zumindest nicht in der form, da sind die teile bevor das limit überhaupt erreicht wurde in ne taktwand gerannt(die meisten) und das 280W ohne probleme bei zen+ gingen, hat mein 2700X ja bewiesen... wäre schön wenn das bei zen2 auch ginge.

MiamiNice
2020-02-18, 18:50:35
FFuEY-MUTdc

Gähn ^^

und das 280W ohne probleme bei zen+ gingen, hat mein 2700X ja bewiesen... wäre schön wenn das bei zen2 auch ginge.

Ich weiß wo Du diese Probleme nicht hast ;)

gedi
2020-02-18, 19:48:30
Die 2080Ti is the way to go. Für ne 2080 non Ti reicht auch Navi unter Wasser. Witzig finde ich allerdings die Behauptungen bezüglich RT und DLSS. Fakt ist, dass ne Ti zu langsam für RT ist und wer die Umsetzung in BH gut findet, dem empfehle ich den Gang zum Optiker.

Lehdro
2020-02-18, 21:39:56
nö, bei ryzen isses genau so kacke das der nicht soviel ziehen darf wie ich will...


Ich weiß wo Du diese Probleme nicht hast ;)
Dieses Mantra Stromverbrauch um des Stromverbrauchs willens finde ich ziemlich lächerlich. Und das sage ich als jemand der gerade mit einer 400W+ CPU rumgurkt - die letzten paar Prozentchen zu jagen auf Kosten sämtlicher Effizienz oder sogar Usability (ich sage nur Kühlaufwand, Stabilität) ist nur für ein paar Promille der potenziellen Userschaft überhaupt in Betracht zu ziehen, in der Praxis schrecken dann selbst die meisten Anhänger dieser minimalsten Untergruppe trotzdem wieder davor zurück: Sinnlos und potentiell gefährlich bzw nervig was Stabilität auf der letzten Rille angeht. Von daher lege ich AMD und NV den Weg der mit Turing und Zen 2 / Navi beschritten wird nicht negativ aus. Wer wirklich will, kann auch da Hand anlegen (PPT, open BIOS etc), die Hemmschwelle wird aber deutlich größer da ernsthaft was gemacht werden muss, anstatt nur Schalter umzustellen. Gerade in Zeiten in denen das Silizium immer empfindlicher wird vielleicht nicht die schlechteste Idee.

Raff
2020-02-18, 21:50:47
na dann zeige mir mal ne luftgekühlte 2080Ti die sich toll takten lässt... soll ich dir all die reviews raussuchen?

selbst mit chiller is da schnell ende im gelände wie man bei igor sehen kann, 40% leistungsplus ist eine utopie(sowas gabs zuletzt bis ca. 2013 bei den grakas), mit chiller liegen 15% drinne bei 20°c... ne 1080Ti mit chiller sieht da schon besser aus, da liegen dann echte 30% drinnen... erstrecht wenn man eine mit guten speicher erwischt wie ich sie habe. ;)

weiterer vorteil bei pascal ist, die graka kann theoretisch unendlich power ziehen bis das netzteil anfängt zu brennen, shunk-mod sei dank, bei turing wird das via bios restriktiv von NV unterbunden...

Ich meinte +40 Prozent von einer bis zur Kotzgrenze übertakteten 1080 Ti zu einer ebenfalls kotzig übertakteten 2080 Ti. Im Mittel. Nicht überall, nicht im Bestcase. Im Mittel. Woher ich das weiß? Sagen wir einfach, dass ich GPUs ganz gut kenne. Und mittlerweile auch GP102 OC vs. TU102 OC über eine breite Spanne von Spielen. :)

Die 2080Ti is the way to go. Für ne 2080 non Ti reicht auch Navi unter Wasser. Witzig finde ich allerdings die Behauptungen bezüglich RT und DLSS. Fakt ist, dass ne Ti zu langsam für RT ist und wer die Umsetzung in BH gut findet, dem empfehle ich den Gang zum Optiker.

Was ist "BH" außerhalb eines femininen Kontexts und welche Ti meinst du für "zu langsam für RT"?

MfG
Raff

SKYNET
2020-02-18, 22:38:52
Ich meinte +40 Prozent von einer bis zur Kotzgrenze übertakteten 1080 Ti zu einer ebenfalls kotzig übertakteten 2080 Ti. Im Mittel. Nicht überall, nicht im Bestcase. Im Mittel. Woher ich das weiß? Sagen wir einfach, dass ich GPUs ganz gut kenne. Und mittlerweile auch GP102 OC vs. TU102 OC über eine breite Spanne von Spielen. :)



Was ist "BH" außerhalb eines femininen Kontexts und welche Ti meinst du für "zu langsam für RT"?

MfG
Raff

ne du, da liegste falsch... mit max OC unter luft/wasser/chiller schrumpft der vorsprung der 2080Ti von 35% auf ca. 25% zusammen... der chip ist einfach zu fett zum gut taken ohne trockeneis oder LN2... selbst der TU104 als super kackt gegen den GP102 ab wenn man die taktschrauben dreht, und solange die 2. schnellste karte der neuen gen, getaktet nicht schneller ist als meine getaktete 1080Ti, isses mumpitz da aufzustocken. :freak:

Ex3cut3r
2020-02-18, 22:49:56
Ja natürlich, Raff arbeitet jeden Tag mit diversen 2080TIs und du kennst die GPU vlt. aus YouTube wer hat wohl mehr recht bzw. wenn wurde man mehr glauben?

Außerdem bist du eh nicht neutral, weil du selbst eine 1080Ti hast, fakt ist aber das eine 1080Ti in Modernen Titeln immer mehr abstinkt. (unter 2070S)

aufkrawall
2020-02-18, 23:49:22
Bei gamegpu.ru ist die 1080 Ti bei allen Benchmarks auf Seite eins vor der 2070S.

Badesalz
2020-02-19, 06:40:12
Außerdem bist du eh nicht neutral, weil du selbst eine 1080Ti hast, fakt ist aber das eine 1080Ti in Modernen Titeln immer mehr abstinkt. (unter 2070S)Aus welchem Grund genau sollte sie das denn tun?

Werden Tensorcores schon überall für alles mögliche genutzt :freak: oder was ergibt es?
Passiert sowas nun auch GCN 4/5 oder ist das immer so eine NV Geschichte, daß die älteren GPUs plötzlich immer schneller altern? Driverskills + Aluhut? ;)


Ich glaub Skynet ist aber eh kein gutes Beispiel. Der fährt meine ich gemoddetes Bios mit 870W TDP oder sowas :ulol: ABER, das ist auch mal eine Möglichkeit die Chips bei ähnlichen Powertargets zu vergleichen :)

JVC
2020-02-19, 10:06:49
Aus welchem Grund genau sollte sie das denn tun?

Wegen der "Asynchronous-Compute-Schwäche" vermutlich.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12198437&postcount=18

M.f.G. JVC

SKYNET
2020-02-19, 11:16:00
Aus welchem Grund genau sollte sie das denn tun?

Werden Tensorcores schon überall für alles mögliche genutzt :freak: oder was ergibt es?
Passiert sowas nun auch GCN 4/5 oder ist das immer so eine NV Geschichte, daß die älteren GPUs plötzlich immer schneller altern? Driverskills + Aluhut? ;)


Ich glaub Skynet ist aber eh kein gutes Beispiel. Der fährt meine ich gemoddetes Bios mit 870W TDP oder sowas :ulol: ABER, das ist auch mal eine Möglichkeit die Chips bei ähnlichen Powertargets zu vergleichen :)


ahh, du hast ihn zitiert und so musste ich seine grütze lesen :frown:

offizielles bios von GB... aber das 2. das es jemals gab, das hatte noch nen max. PT von 450W ;D die späteren waren dann bei 375W schluss(auch mit dem was original auf meiner karte war, da viele leute probleme mit den temps hatten)... muss den klotz mal auf wasser umbauen, weil die gute rennt leider ins temp limit wenn ich sie voll aufdrehe und landet dann bei 2076MHz von anfangs 2250MHz :(

Badesalz
2020-02-19, 12:10:10
Wegen der "Asynchronous-Compute-Schwäche" vermutlich.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12198437&postcount=18Wäre mal in der Tat ein Ansatz. Es fällt mir nur schwer es zu glauben, die Engine-Coder fangen jetzt schon die Pascaluser damit zu mobben. Das dürften die Marktanteile der beiden noch ne Weile nicht ergeben...

JVC
2020-02-19, 12:31:41
Ich denke nicht das "direkt gemobbt" wird.
Ist hald ne schwäche von PA die langsam(DX12) zum tragen kommt.

Bei NV verzichtet man einfach gerne auf irgendein Detail oder spart am RAM,
damit die Karten nicht zu langlebig werden.
Keine Firma will das jeder Kunde "nur einmal kauft" ...
(reine Vermutung meinerseits)

M.f.G. JVC

aufkrawall
2020-02-19, 12:34:54
Alle GPUs haben Stärken und Schwächen, Async Compute allein ist auf dem PC bislang nicht gravierend. Expl. API ist allgemein aber etwas unglücklicher für ältere NV-GPUs.
Kann trotzdem gut laufen, 1080 vor Vega 64 ist trotz expl. API immer noch keine Seltenheit:
https://gamegpu.com/action-/-fps-/-tps/metro-exodus-sam-s-story-test-gpu-cpu
https://gamegpu.com/action-/-fps-/-tps/zombie-army-4-test-gpu-cpu
https://gamegpu.com/rpg/%D1%80%D0%BE%D0%BB%D0%B5%D0%B2%D1%8B%D0%B5/detroit-become-human-test-gpu-cpu
Nicht so heiß essen wie gekocht...

dildo4u
2020-02-19, 13:26:06
Ich denke nicht das "direkt gemobbt" wird.
Ist hald ne schwäche von PA die langsam(DX12) zum tragen kommt.

Bei NV verzichtet man einfach gerne auf irgendein Detail oder spart am RAM,
damit die Karten nicht zu langlebig werden.
Keine Firma will das jeder Kunde "nur einmal kauft" ...
(reine Vermutung meinerseits)

M.f.G. JVC
Was ein Unsinn ich werde meine 1070 frühstens im September nach 4 Jahren mit RDNA2 oder 7nm Nvidia ersetzen.Es gibt zur Zeit nix was Sinn macht entweder fehlen Features oder Performance.

JVC
2020-02-19, 14:05:57
Was ein Unsinn
Die Vermutung das sich die "Asynchronous-Compute-Schwäche" unter DX12 bemerkbar macht?
Oder meine "Vermutung" zwecks "Verkaufsförderung"? (macht jeder Hersteller, der eine mehr der andere weniger)

ich werde meine 1070 frühstens im September nach 4 Jahren mit RDNA2 oder 7nm Nvidia ersetzen.Es gibt zur Zeit nix was Sinn macht entweder fehlen Features oder Performance.

Völlig richtig :smile:
Freu misch schon auf das neue Zeug im Herbst :freak:

M.f.G. JVC

Daredevil
2020-02-19, 14:15:01
ne du, da liegste falsch... mit max OC unter luft/wasser/chiller schrumpft der vorsprung der 2080Ti von 35% auf ca. 25% zusammen... der chip ist einfach zu fett zum gut taken
Na dann, mal Titten aufm Tisch:

Deine 1080ti:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=64321&d=1538337968

hq-hqs 2080ti:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=66369&stc=1&d=1556229055

Eine schlechter gekühlte Karte, ebenfalls bei um die 2 Ghz, die 58% mehr abliefert. ( Mal davon ab, dass hier kein 4k Preset lief... )
Du taktest dann deine 1080ti mit 2.5ghz, oder wie?

Schnoesel
2020-02-19, 14:19:33
Welche Spiele nutzen gleich nochmal die Engine des Superposition Benchmarks? Mir fällt doch glatt keines ein. Also immer her mit den Titten.

PS:Hier noch ein neues Game getestet bei PCGH:

https://www.pcgameshardware.de/Journey-to-the-Savage-Planet-Spiel-62078/Specials/Benchmarks-Test-Review-Release-Steam-1342546/

Ich seh nix von euren 50% die Turing angeblich in jedem neueren Spiel schneller sein soll.

Daredevil
2020-02-19, 14:26:01
Ebenfalls Werte von hq-hq.
1080ti:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=66138&stc=1&d=1553799544

2080ti:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=66367&stc=1&d=1556226688

Ich kann damit auch gerne weitermachen.
Es geht um die potentielle Leistungssteigerung durch Hardware und Architektur und wer da "am Ende" nur 25% zählt, hat sich schlicht verzählt.
Wenn 2/10 Spiele zeigen, dass die Karte 50% mehr kann, dann kann die Karte potentiell auch 50% mehr. Ob das von jedem Spiel ausgenutzt wird, ist eine andere Frage.

Welche Spiele nutzen gleich nochmal die Engine des Superposition Benchmarks? Mir fällt doch glatt keines ein. Also immer her mit den Titten.

PS:Hier noch ein neues Game getestet bei PCGH:

https://www.pcgameshardware.de/Journey-to-the-Savage-Planet-Spiel-62078/Specials/Benchmarks-Test-Review-Release-Steam-1342546/

Ich seh nix von euren 50% die Turing angeblich in jedem neueren Spiel schneller sein soll.

Scherzkeks. :D
Ein DX11 CPU limitiertes Spiel und du vergleichst Grafikkarten. Les dir doch mal den Artikel komplett durch. ( Hallo DX12 Benches )
Darum gehts hier doch, Last Level und Next Level API, wo Turing eher scheint.

Schnoesel
2020-02-19, 14:28:57
Ach jetzt geht es angeblich nur um die potentielle Leistungsteigerung? Da war nie die Rede von.

Was natürlich auch Blödsinn ist weil Cherrypicking. Kannst gleich sagen Turing ist potentiell 150% schneller als Pascal (was bei RT Benches nicht gelogen wäre) was soll das für einen Sinn haben?

Daredevil
2020-02-19, 14:48:25
Weil es eben so ist.
Unter 720p ist Turing auch nicht 50% schneller als Pascal, weil die Einheiten halt nicht ausgenutzt werden, ist das der Fall, dann eben schon.
Wer hat denn hier gesagt, dass Turing IMMER schneller ist? Ich sehe hier niemanden. Skynet verallgemeinert allerdings.

Ich spiele btw. nicht nur Spiele, ich kann dir auch synthetische Tests zeigen aus dem Cryptomining Bereich, wo Turing deutlich mehr macht als 25%.
Ich hatte ja nicht umsonst ein System mit 5 1080ti hier stehen, die 24/7 liefen und habe es dann verkauft, weil die Karten ab dem Zeitpunkt von Turing ineffizient und langsam waren.

SKYNET
2020-02-19, 15:43:12
Welche Spiele nutzen gleich nochmal die Engine des Superposition Benchmarks? Mir fällt doch glatt keines ein. Also immer her mit den Titten.

PS:Hier noch ein neues Game getestet bei PCGH:

https://www.pcgameshardware.de/Journey-to-the-Savage-Planet-Spiel-62078/Specials/Benchmarks-Test-Review-Release-Steam-1342546/

Ich seh nix von euren 50% die Turing angeblich in jedem neueren Spiel schneller sein soll.


oh nein, nur 24% bzw. 29% mehr als die 1080Ti... das müssen fake-news sein, die 2080Ti ist doch min. 50% schneller X-D

oder mal cherry picking wie es daredevil macht: in FC5 ist ne 2080Ti FE nur 18% schneller als ne 1080Ti FE bei den 99th in 4k... heisst meine getaktete 1080Ti zieht die 2080Ti FE(stock) da gnadenlos blank :)
in gears 5, liegt die 2080Ti FE bei den 99th sogar nur 13% vor der 1080Ti FE... heisst da knackt selbst ne mittlere custom die 2080Ti FE schon :)

Daredevil
2020-02-19, 15:59:23
" in FC5 ist ne 2080Ti FE nur 18% schneller als ne 1080Ti FE bei den 99th in 4k"
https://www.computerbase.de/2019-02/far-cry-new-dawn-benchmark/2/#diagramm-far-cry-new-dawn-3840-2160
https://abload.de/img/unbenanntjajn8.png
"Nvidias Turing-Architektur hat gegenüber dem Vorgänger Pascal keinerlei Vorteile in Far Cry New Dawn. Auch die GeForce GTX 970 auf Basis des betagteren Maxwells schneidet noch gut ab."

https://i.ytimg.com/vi/NqD2ZEE0Uic/hqdefault.jpg

JVC
2020-02-19, 16:05:00
Bleiben wir bei lokalen Fakten ;)
https://www.3dcenter.org/news/performance-entwicklung-und-performancepreis-verhaeltnisse-von-nvidias-250-dollar-grafikkarten-
Ich zitiere mich mal aus Faulheit einfach selbst...
Schön das man Das auch mal in der Tabelle erkennen kann :)
1080Ti 4K-Perf. 173% 699$
2080Ti 4K-Perf. 228% 999$
Das Performance+ beträgt ~32%
(wobei der Vorsprung unter DX11 zur 1080Ti FE eher geringer ist)
Die Preissteigerung beträgt ~42%
(bei gleichen Customs ist der unterschied von PA zu TU eher noch größer)


M.f.G. JVC

Schnoesel
2020-02-19, 16:08:58
Was wird da verglichen? Imo gab es die Nvidia 2080Ti FE nicht für 999$, das waren die Referenzpartenerkarten.

PS: Jap here we go:

https://www.igorslab.de/das-ist-die-geforce-rtx-2080-ti-video/

Preis für die FE war 1199$, das haben viele Seiten falsch übernommen, weil sie dachten die FE wären die Referenzkarten, was nicht der Fall ist.

JVC
2020-02-19, 16:12:42
Was wird da verglichen? Imo gab es die Nvidia 2080Ti FE nicht für 999$ waren die Referenzpartenerkarten.

Pssst, lass doch den HC-NVlern einen akzeptierbaren Vergleich :wink:
(ich hab nur Leos Tabellen, im Bezug auf die beiden Karten etwas zusammengefasst)

M.f.G. JVC

Daredevil
2020-02-19, 16:14:59
Bleiben wir bei lokalen Fakten ;)
https://www.3dcenter.org/news/performance-entwicklung-und-performancepreis-verhaeltnisse-von-nvidias-250-dollar-grafikkarten-
Ich zitiere mich mal aus Faulheit einfach selbst...


M.f.G. JVC
Absolut, das ist ja der bekannte Leistungsdurchschnitt. :)
In Potential sollte man ja so oder so nie investieren, das macht man ja eher als AMD Kunde ( ach komm der musste sein, ich hatte auch ne Vega :D ), aber ob Pascal oder Turing nun mit DX12 und Low Level APIs schneller wird, ist ja nun auch kein Geheimnis. Ich meine...... alleine schon DLSS.... aber gut, das schweift dann wieder ab. ^^

Über 1000€ ist natürlich happig, so einen Preis habe ich nie bezahlt.
Die günstigste Custom 1080ti, die ich mal bekommen habe gabs für 699€, die günstigste 2080ti für 800€. Ist für mich ein Nobrainer gewesen aus P/L Sicht.

JVC
2020-02-19, 16:24:21
800.- für ne 2080Ti mit brauchbarer Kühlung... für so nen Startpreis hätte ich auch zugeschlagen ;)
Der Nachfolger von meiner 819.-Custom kostete aber glaub ich ~1400.- 1346.- ...

M.f.G. JVC

Fragman
2020-02-19, 16:47:48
Bitte nicht wieder die Diskussion der "meine extrem teure Graka war aber nicht so teuer wie..."Art. Das ist lächerlich und auch verlogen, das sich diejenigen über die Preise zuregen, die diese mit zu verantworten haben.

JVC
2020-02-19, 16:56:02
Das ist lächerlich und auch verlogen, das sich diejenigen über die Preise zuregen, die diese mit zu verantworten haben.

Lächerlich , Verlogen ... und was hab ich "mit zu verantworten"?

Mir missfällt diese Ausdrucksweise.
Und nur weil ich ne GPU mit viel RAM brauchte und eben die 1080Ti zu der Zeit m.M.n. ein gutes P/L hatte...
(normal bevorzuge ich AMD, den Underdog eben)
Bin Ich schuld !?

Das nenn ich mal eine unangebrachte Verallgemeinerung.
Für dich mag das zutreffen, aber maße dir bitte nicht an für andere zu sprechen.



M.f.G. JVC

Fragman
2020-02-19, 17:13:14
Die Preise sind, wie sie sind, die Gründe wurden auch schon mehrfach genannt (große Chips, neues Marktsegment zb). Hier jedesmal Turing zu bashen, nur des Preises wegen, nervt beim Lesen gewaltig.

Daredevil
2020-02-19, 17:15:17
Ist ja jetzt auch nicht so, als hätte Nvidia die guten Custom 1080ti für 500€ verschenkt... nech. :D

Rampage 2
2020-02-19, 21:05:39
1080 Ti sieht noch sehr gut aus im Prinzip haste + 20% in 3 Jahren mit der 2080 Super wohl eher super Mager.

Laut Nvidia ist die 2080 Super sogar schneller als eine Titan Xp (GP102-Vollausbau) - so steht es zumindest auf der offiziellen Nvidia-Produktseite zur 2080S;)

ne 2080S macht meine xtreme in den meisten games immernoch platt, und der abstand auf die 2080Ti ist +/- 20%...

Das kann nicht sein - das wage ich mal zu verneinen;)

Eine Turing-Recheneinheit ist im Schnitt ~ 20% effizienter (also schneller) als eine Pascal-Recheneinheit und außerdem hat TU104 ungewöhnlicherweise 6 statt 4 Raster-Engines (wie es für xx104-Chips sonst üblich ist); also genauso viele wie TU102 & GP102. Eine bis zum Kotzen übertaktete 2080 Super sollte mindestens genauso schnell, eher noch schneller sein als eine bis zum Kotzen übertaktete 1080Ti...

Übrigens ist selbst die 2080Ti im Schnitt kaum 20% schneller als die 2080S, eher sogar weniger;)

R2

Raff
2020-02-21, 21:35:46
Eine 2080S ist nur so stark, weil sie mit 250 Watt und somit viel Takt knapp unter der 2-GHz-Karte operieren darf. Eine 2080 Ti mit ihrem wesentlich fetteren Chip ist viel härter powerlimitiert und muss sich daher öfter drosseln. Taktnormiert und spätestens in Speicher-Worstcases sieht TU104 immer alt aus. Das ist für einen GP102-Besitzer einfach kein Deal.

MfG
Raff

hq-hq
2020-02-22, 00:40:56
in FarCry5 @4k ist meine Strix OC 2080Ti etwa 40% schneller als meine alte Aorus Xtreme 1080Ti

GTX 1080Ti @ 2076/6264MHzhttps://abload.de/img/farcry5_2160p_169uyk.jpg
RTX 2080Ti @ 2025-2070/8218MHzhttps://abload.de/img/2080ti_farcry5_2020_0e5jwa.jpg

ohne Wasserkühlung ist das aber ganz schön laut :freak:

die 2080Ti hat halt immer den Vorteil das sie mit mehr Leistung startet und darum prozentual weniger OC benötigt um die 1080Ti auf Abstand zu halten

Daredevil
2020-02-22, 00:58:46
Viel wichtiger ist an der Stelle meiner Meinung nach dann auch nicht, ob es 20, 30 oder 40 Prozent sind.
Die 2080ti löst in dem Fall das Problem der „Spielbaren“ FPS unter 4K. ( ist aber auch ne Sache der Gewöhnung... )
53fps min oder 77fps min sind Welten beim Spielgefühl.

Hat jemand BTW. mal liquid Metal auf seine Karte gejagt und geschaut, wie sich das ganze so temp mäßig verhält?
Meine „neue“ 2080ti macht mit Idle Steuerung nämlich nicht die 2ghz mit und das macht mich psychologisch wahnsinnig :D, da muss ich schlicht höher drehen lassen, weil sie aufgrund der Temperatur auf..... 1995mhz..... geht..... ( First world Problems ).

-=Popeye=-
2020-02-22, 02:46:27
TurricanM3 hat LM auf der GPU, seine Karte ist allerdings Wasser gekühlt.

Rampage 2
2020-02-22, 04:32:20
Eine 2080S ist nur so stark, weil sie mit 250 Watt und somit viel Takt knapp unter der 2-GHz-Karte operieren darf. Eine 2080 Ti mit ihrem wesentlich fetteren Chip ist viel härter powerlimitiert und muss sich daher öfter drosseln. Taktnormiert und spätestens in Speicher-Worstcases sieht TU104 immer alt aus.


4352 zu 3072 SPs - das theoretische Maximum ist also die 1,41666fache Leistung. Zieht man dann noch in Betracht, dass xx102-Chips 5-10% schlechter takten als xx104-Chips, dann bleibt nur noch Faktor 1,35 übrig. Bandbreite hat die 2080Ti auch nicht viel mehr als die 2080S (+22%). Hinzu kommt noch, dass sie nicht mehr Raster-Engines hat als TU104, im Gegensatz zu Pascal.

Ich gehe mal nicht davon aus, dass eine unbegrenzt entfesselte 2080Ti allgemein (!) mehr als 30% schneller ist als 2080S, solange Letzterer nicht an Speichermangel absäuft.;)

Das ist für einen GP102-Besitzer einfach kein Deal.


Das stimmt. Für einen GP102-Nutzer ist es nur ein Sidegrade (wegen RTX, DLSS, NVENC und anderen neuen Features), aber für den Rest dennoch lecker! :)

R2

robbitop
2020-02-22, 08:15:24
Preis / Leistung ist bei der 2080 S leider nicht so toll. GA102 kann für GP102 Besitzer nicht früh genug kommen. Die 2080Ti war IMO aus reiner Performance auch kein so großes Upgrade. Ggf. schafft dann GA102 endlich den Faktor 2 Sprung ggü GP102. (was früher alle 18 Monate zum gleichen Preis ging...)

BlacKi
2020-02-22, 09:17:16
Hat jemand BTW. mal liquid Metal auf seine Karte gejagt und geschaut, wie sich das ganze so temp mäßig verhält?
Meine „neue“ 2080ti macht mit Idle Steuerung nämlich nicht die 2ghz mit und das macht mich psychologisch wahnsinnig :D, da muss ich schlicht höher drehen lassen, weil sie aufgrund der Temperatur auf..... 1995mhz..... geht..... ( First world Problems ).
meiner erfahrung nach, bringt es keinen messbaren vorteil, andere sagen 2-3°.

er hier hat 3,5° gemessen bei 1000rpm, je höher die rpm desto desto weniger der vorteil.
https://youtu.be/bpbWX7T7r5o?t=287

Rampage 2
2020-02-22, 16:08:13
Preis / Leistung ist bei der 2080S leider nicht so toll.


Das stimmt - ich wünschte Nvidia würde ihre MSRP um 100$ senken.:frown:


GA102 kann für GP102 Besitzer nicht früh genug kommen.


Zuerst kommt einmal AM104/GA104 - für AM102/GA102 werden sich die 1080Ti & 2080Ti-Besitzer länger gedulden müssen.;)

R2

Raff
2020-02-25, 10:59:10
Hier das beste Beispiel, wofür man eine möglichst schnelle Grafikkarte braucht:

Zum Release von Ark Genesis: Benchmarks von 26 Grafikkarten in Full HD bis Ultra HD (https://www.pcgameshardware.de/ARK-Survival-Evolved-Spiel-55571/Specials/Genesis-Steam-Release-Gameplay-Benchmarks-Test-Review-1344049/)

Tatsächlich läuft das Spiel in der aktuellen Iteration etwas besser als noch Mitte 2019. Sieht man nicht an den Fps, ist aber so. :ugly: Das Spiel ist ein Beispiel für anhaltende Popularität trotz unfassbar schlechter Performance.

Warum ich das hier poste? Weil nur TU102-Karten wirklich gute Bildraten erzeugen. Eine RTX 2080 Ti ist mit den genannten Takraten um bis zu 47 Prozent schneller als eine GTX 1080 Ti. So viel zu "Turing bringt nix". ;)

MfG
Raff

SKYNET
2020-02-25, 11:46:13
Hier das beste Beispiel, wofür man eine möglichst schnelle Grafikkarte braucht:

Zum Release von Ark Genesis: Benchmarks von 26 Grafikkarten in Full HD bis Ultra HD (https://www.pcgameshardware.de/ARK-Survival-Evolved-Spiel-55571/Specials/Genesis-Steam-Release-Gameplay-Benchmarks-Test-Review-1344049/)

Tatsächlich läuft das Spiel in der aktuellen Iteration etwas besser als noch Mitte 2019. Sieht man nicht an den Fps, ist aber so. :ugly: Das Spiel ist ein Beispiel für anhaltende Popularität trotz unfassbar schlechter Performance.

Warum ich das hier poste? Weil nur TU102-Karten wirklich gute Bildraten erzeugen. Eine RTX 2080 Ti ist mit den genannten Takraten um bis zu 47 Prozent schneller als eine GTX 1080 Ti. So viel zu "Turing bringt nix". ;)

MfG
Raff


takte die 1080Ti doch mal bitte auf 2076/6360 und schau dann den abstand an :)

Raff
2020-02-25, 11:51:51
Das sind rund +18 Prozent auf dem Kern und +16 Prozent beim RAM. Reicht mathematisch nicht ansatzweise, um TU102 zu begrabbeln.

MfG
Raff

Timbaloo
2020-02-25, 13:06:06
Das sind rund +18 Prozent auf dem Kern und +16 Prozent beim RAM. Reicht mathematisch nicht ansatzweise, um TU102 zu begrabbeln.

MfG
Raff
Wieso? Sind doch zusammen schon +34 Prozent :freak:

Edit: Was ist denn bei der Fury los? Gut altern sieht anders aus :ulol: :ulol: :ulol:

Raff
2020-02-25, 13:12:29
Speichermangel.

MfG
Raff

Timbaloo
2020-02-25, 13:15:46
Müsste aber die 970 genauso betreffen.

aufkrawall
2020-02-25, 13:19:21
Ist schon traurig, dass der AMD DX11-Treiber mitunter schlechter mit echten 4GB hinkommt als die 970 mit ihrer Krüppel-Config.

Raff
2020-02-25, 13:20:04
Schau dir mal den Text zu den Bälkchen an. :) Ark misst bei Speichermangel mit zweierlei Maß und cheatet die Geforce-Performance mittels Streaming zurecht.

MfG
Raff

aufkrawall
2020-02-25, 13:23:39
Woher weißt du, dass Ark das macht, und nicht der Treiber? Ich würde es auch nicht cheaten nennen, wenn die Alternative noch kaputtere Performance wäre.

Timbaloo
2020-02-25, 13:24:02
Ah ok, sorry, nur schnell überflogen in der Mittagspause :)

MartinRiggs
2020-02-28, 15:01:28
Ich war ja ein riesiger Kritiker, aber für ihre Krüppel-Config hat sich die GTX970 sehr achtbar geschlagen.
Den Preis für eine der miesesten Grafikkarten ever gebührt wohl eindeutig der Fury ;D

Timbaloo
2020-02-28, 15:51:19
Ich war ja ein riesiger Kritiker, aber für ihre Krüppel-Config hat sich die GTX970 sehr achtbar geschlagen.
Ja, ich kann mich nicht beklagen. Gut, ich spiele keine AAA-Grafiktrümmer sondern praktisch nur MP-FPS, und habe dort auch nicht den Anspruch auf höchste Details, aber wirklich aufgefallen ist mir die Speicherproblematik bisher nur in PUBG auf Miramar und dort auch nur an wenigen Stellen bzw. in wenige Situationen aufgefallen. Sonst würde ich sie auch nicht effektiv 6 Jahre behalten (6 Jahre wenn sie dann in ~Q3 durch eine next-gen Karte ersetzt wird).

Daredevil
2020-03-17, 21:43:58
Der Raff berichtet von seinem Umstieg. Kostenpflichtiger Nerdkram, haut raus den Euro. :)

[PLUS] Aufrüstbericht: Von Titan X Pascal auf RTX 2080 Ti
https://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/Specials/Aufruestbericht-Von-Titan-X-Pascal-auf-RTX-2080-Ti-1345617/

Aber schön, dass ich nicht der einzige bin, der sich nur wegen Maxed out Control ne 2080ti geholt hat. :D

Raff
2020-03-17, 21:58:39
Ah, isser endlich auch online. Nice find. :up:

Yep, Control ist es wert. Wo sind eigentlich die versprochenen Addons?

MfG
Raff

MiamiNice
2020-03-18, 17:41:42
Der Raff berichtet von seinem Umstieg. Kostenpflichtiger Nerdkram, haut raus den Euro. :)


Mal abgesehen von der Qualität des Artikels, der sicherlich über alle Zweifel erhaben ist, verstehe ich nicht warum ich dafür einen € bezahlen sollte. Hr. Vötter hat eine GPU getauscht und schreibt einen Erfahrungsbericht dazu. Ist sicherlich lesenswert aber eben "nur" ein "Erfahrungsbericht", eine persönliche Anekdote. In meiner Blase sollte so ein Content - kostenlos sein - da, IMO, Foren Content. Zumal wir uns mit Herrn Vötter, seit gut 20 Jahren, auch ein Forum teilen :wink:
Ich kann so was nicht unterstützen, sonst zahlen wir bald schon nur für den Besuch von Webseiten.

Ich fände es ganz cool wenn Du solche Dinge wieder in unserem Forum posten würdest statt es hinter einer Paywall zu verstecken @Raff.

Daredevil
2020-03-18, 18:33:25
Zumindest zwei Dinge waren mir neu, ansonsten habe ich einfach gerne den Artikel gelesen und natürlich halt auch unterstützt. Whatever.
Neu war für mich:
Für 50c verrate ich es dir. :tongue:

Raff
2020-03-18, 20:15:05
Ich kann so was nicht unterstützen, sonst zahlen wir bald schon nur für den Besuch von Webseiten.

Nope. Das ist einfach Heft-Content, der es niemals auf die Website geschafft hätte, wenn es nicht die neuen Monetarisierungsmöglichkeiten gäbe. Die Redaktion muss bezahlt werden, ergo wird es immer kostenpflichtige Inhalte geben - und natürlich auch immer kostenlose. :)

MfG
Raff

MiamiNice
2020-03-18, 20:22:36
Versteh mich bitte nicht falsch, Du hast eine Grafikkarte gewechselt :wink: Solche Dinge wurden mal im Forum diskutiert, heute wandert es wo anders hin. Ist einfach sehr schade. Du bist ja auch schon ewig in Foren unterwegs und das wäre doch super Stuff hier gewesen. Aber ich weiß natürlich nicht wie es um den Verdienst eines Redakteurs bestellt ist. War einen Versuch wert :biggrin:

Ex3cut3r
2020-03-18, 20:25:23
Den Euro wird man, wenn man wirklich daran interessiert, ja noch entbehren können, grade wir mit unseren dicken High-end System nagen nun grade nicht am Hungertuch. Mann muss auch mal was zurückgeben.

MiamiNice
2020-03-18, 20:31:37
Natürlich ist es den € und wahrschienlich auch noch einige andere € wert. Mich ärgert nicht die Qualität oder der €, im Gegenteil wünsche ich unserem Raff das er sich die Nase golden verdient mit seiner Arbeit. Ist ein GPU Wechsel und früher war das mal hier Content, der heute leider fehlt. Ist halt schade.

Ex3cut3r
2020-03-18, 20:39:05
Natürlich. Aber ich würde es ja auch so machen, wenn jemand für meine Erfahrungen etwas zahlen wurde, nur interessiert es keinen. Sooo poste ich es halt hier kostenlos. So ist das Leben. :biggrin:

BlacKi
2020-03-19, 00:11:58
Natürlich. Aber ich würde es ja auch so machen, wenn jemand für meine Erfahrungen etwas zahlen wurde, nur interessiert es keinen. Sooo poste ich es halt hier kostenlos. So ist das Leben. :biggrin:
das stimmt so nicht. wird nur selten kompakt schön leserlich in einen post oder fred gepackt.

jetzt macht das raff, stört mich nicht das seine redaktion dafür geld verlangt, ist schließlich sein job. aber was ich da so rauslese, triggert mich höchstens zum kurz überfliegen. was natürlich die paywall verhindert.

überfliegen deshalb, weil ein wechsel von txpascal auf 2080ti kaum sinn macht, und weil bald die next gen vor der tür steht.

so hab ich halt 3 gründe warums mich nicht interessiert^^

Raff
2020-03-19, 09:38:37
Im Artikel steht ja, wo das Sinn ergibt und wo nicht. Die Einleitung ist leider ziemlich nichtssagend, das gebe ich zu. Der ganze Artikel ist ungleich diverser und umfangreicher, als man annehmen könnte, gelle Daredevil? :D Das Digi-PDF sieht als Seitenstrecke so aus:

https://abload.de/thumb/aufrstberichtjck6k.png (https://abload.de/image.php?img=aufrstberichtjck6k.png)

Anyway, hier noch ein Teaser: Turing-RTX-Nutzer können sich über ein paar coole News bis Ende März freuen. Mehr dann, wenn die Zeit dafür reif ist. :)

MfG
Raff

Troyan
2020-03-19, 09:49:58
Versteh mich bitte nicht falsch, Du hast eine Grafikkarte gewechselt :wink: Solche Dinge wurden mal im Forum diskutiert, heute wandert es wo anders hin. Ist einfach sehr schade. Du bist ja auch schon ewig in Foren unterwegs und das wäre doch super Stuff hier gewesen. Aber ich weiß natürlich nicht wie es um den Verdienst eines Redakteurs bestellt ist. War einen Versuch wert :biggrin:

Hier im Forum wurde man doch angefeindet, wenn man von Pascal auf Turing gewechselt hat.

BTW: Dank Coronavirus merkt man mal wieder, wie belanglos es ist dauern nur über Preise zu meckern, aber die eigene Lebenszeit nicht als "Gut" zu betrachten.

x5
2020-03-19, 09:57:18
Will wer wissen wie ich,als meine 2080ti defekt und ewig unterwegs war,meine 970er wieder eingebaut hab?Und wie die so läuft? :))

Raff
2020-03-19, 10:33:19
"Kann man mit einer GTX 970 die Fps einer RTX 2080 Ti erreichen?" wäre mal ein kecker Ansatz. MAX-OC, alles low ... und doch keine Chance? :D

MfG
Raff

gnomi
2020-03-21, 19:02:41
Hier im Forum wurde man doch angefeindet, wenn man von Pascal auf Turing gewechselt hat.


Bisschen übertrieben jetzt.
Ich nenne es mal skeptisch.

Persönlich bin ich auch froh, es gemacht zu haben. :up:
Wenn auch erst mit mehr Support und besseren Anschaffungspreisen.
Die Steigerung der Grund Performance brauche ich jetzt Dank größerem Monitor mit mehr Auflösung und besserem Panel ohnehin.
Und die RTX Effekte haben mich schnell überzeugt.
Mein Problem ist jetzt eher, dass ich einfach nicht mehr ganz so viel spiele...

Bei den User Hardwaretests stehen einige Erfahrungsberichte- nur leider ist gerade in Sachen GPU nichts dabei.
Ein Problem, was ich sehe, sind diese heftigen Updates an Informationen über Treiber und Patches. Es ist da alles sehr schnelllebig geworden.

Raff
2020-03-27, 11:45:14
DLSS 2.0 "in depth" analysiert: Überzeugt das KI-Antialiasing in Mechwarrior 5 und Control? Bildqualität & Leistung (https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Mechwarrior-5-DLSS-Test-Control-DLSS-Test-1346257/)

Viel zu viel Info, um den Artikel kurz zusammenzufassen. Wobei, doch: DLSS 2.0 ist wesentlich besser und flexibler als die ersten Experimente, aber noch nicht perfekt; die Leistungsgewinne beeindrucken gerade im Angesicht der Qualität.

MfG
Raff

JVC
2020-03-27, 13:36:22
DLSS 2.0 finde ich durchaus interessant.

Also dürften die Tensor-Cores bleiben ?
(nicht das die in n paar Gen wieder weck sind...)

M.f.G. JVC

aufkrawall
2020-03-27, 13:43:03
Wenn man die Funktionalität für zumindest DLSS nicht anderweitig unterbringen kann, würd ich davon ausgehen, dass sie wie vermutlich RT auch in kleineren Chips verfügbar gemacht werden.
Ist wohl auch nicht unrealistisch davon auszugehen, dass da mit Ampere, oder zumindest in dessen Lebenszeit via Software, es weitere Fortschritte geben wird. Könnte AMD gefährlich werden.

basix
2020-03-27, 14:46:09
DLSS 2.0 "in depth" analysiert: Überzeugt das KI-Antialiasing in Mechwarrior 5 und Control? Bildqualität & Leistung (https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Mechwarrior-5-DLSS-Test-Control-DLSS-Test-1346257/)

Viel zu viel Info, um den Artikel kurz zusammenzufassen. Wobei, doch: DLSS 2.0 ist wesentlich besser und flexibler als die ersten Experimente, aber noch nicht perfekt; die Leistungsgewinne beeindrucken gerade im Angesicht der Qualität.

MfG
Raff

Danke! :up: Schöner Test aus dem Home Office. Ich habe Control zwar auf der Platte, aber noch nicht gespielt. Freue mich auf das WE mit Control @ Full Raytracing >60fps :D

Was ich sehr nice finde bei Control: Die Unschärfe wird entfernt. Einen ticken zu scharf, aber richtig gut. Bei fast allen modernen Spielen ist TAA / Unschärfe im Spiel. Schön, gibt es nun ein "Heilmittel" ;D

@aufkrawall:
Microsoft hat für XSX ebenfalls AI-Upscaling erwähnt. In Raffs Artikel schreibt er, dass DLSS INT8 verwendet, das kann RDNA2 ebenfalls.

@Raff:
Du hast ja Profiling mit Nsight betrieben. Wie hoch war dort die Auslastung der Tensor Cores? Sieht man das?
Und als zweite Frage: Weiss man, ob noch andere Spiele mit DLSS 2.0 geupdated werden? z.B. Metro Exodus

=Floi=
2020-04-18, 21:56:24
RTX Minecraft ist imho auch eine richtige ansage, wie schlecht RTX in sachen performance noch immer ist und wie nutzlos es eigentlich ist, wenn nichtmal das game sauber läuft, sobald man reichweite oder auflösung über 1080p erhöht. Einfach lächerlich.

Dampf
2020-04-18, 23:12:12
RTX Minecraft ist imho auch eine richtige ansage, wie schlecht RTX in sachen performance noch immer ist und wie nutzlos es eigentlich ist, wenn nichtmal das game sauber läuft, sobald man reichweite oder auflösung über 1080p erhöht. Einfach lächerlich.

"Wenn nicht mal das Game..."

Dir ist schon bewusst, dass Minecraft per Path Tracing berechnet wird und wie krass aufwendig das ist?

gnomi
2020-04-19, 06:21:59
Wie schon bei Quake 2 finde ich es eher erstaunlich, was man aus vermeintlich einfacher Grafik per RTX herausholen kann. :up:
Natürlich kann jetzt die erste Generation an GPUs das noch nicht so schnell. :(
Das wird mittelfristig schnell anders. Hier ist das Steigerungspotenzial sicher schon ähnlich hoch wie bei Pixel Shader 1 auf 2.
Die Karten sind noch ein bisschen teuer, trotzdem verwundert mich das zögerliche Aufrüsten in so einem Forum wie diesem langsam. :confused:
Diese Features wie RTX und DLSS oder vergleichbares werden bleiben, ausgebaut und schnell enorme Unterschiede bei entsprechend angepassten Spielen bringen. In Control und Wolfenstein Youngblood ist das absolut überzeugend. Und diese Spiele gab es beim GPU Kauf ja auch praktischerweise gleich dazu.
Mit den neuen Konsolen kommt dann noch mehr Bewegung rein und die Dinge werden schon auf einem ansprechendem Niveau standardisiert.

Fragman
2020-04-19, 10:21:44
Bei Minecraft gehe ich davon aus, das wir noch Verbesserungen sehen werden, wie schon bei Q2 RTX. Einige erwarten zuviel, alles muss sofort laufen und perfekt implementiert sein. Ich habs an anderer Stelle schonmal gesagt, für nv ist das teilweise auch einfach ein herumexperimentieren. Jetzt ist es erst einmal drin, läuft und jetzt kann man das Ganze hier und da verbessern.

Teuer find ich das nicht, wenn man sieht, was man dafür geboten bekommt. Für die erste Hardwareimplementierung ist alles nutzbar und für PT sowieso überraschend performant, sauber und stabil.

Troyan
2020-04-19, 10:30:44
Der ganze Ansatz von DXR ist Hybrid-Rendering wie in Control, Metro oder Wolfenstein. Solche Sachen wie Quake 2 RTX und Minecraft sind Experimente, wie weit man gehen kann. Beides sind Spiele, die nicht mehr auf Rasterizing setzen. Also sozusagen Zukunft heute schon erlebbar.

Raff
2020-05-01, 11:07:36
MSI Geforce RTX 2080 Ti Gaming Z Trio im Benchmark-Test: Die erste "RTX 2080 Ti Super" (https://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/Tests/MSI-Gaming-Z-Trio-Benchmarks-Review-1348817/)

Die erste Karte mit effektiv 8.000 MHz Speichertakt (16 GT/s). Inkl. OC-Benchmarks mit auf 18 GT/s angehobener Speicherleistung. Schade, dass das so spät kommt - und dass die Kapazität immer noch bei 11 GiB klebt.

MfG
Raff

UV_Freak
2020-05-02, 15:57:04
Was kann man für ien Palit 2080ti OC version noch verlangen ? Nach Ebay kann man ja nicht gehen bei den ganzen scams dort.

Ex3cut3r
2020-05-02, 16:18:48
MSI Geforce RTX 2080 Ti Gaming Z Trio im Benchmark-Test: Die erste "RTX 2080 Ti Super" (https://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/Tests/MSI-Gaming-Z-Trio-Benchmarks-Review-1348817/)

Die erste Karte mit effektiv 8.000 MHz Speichertakt (16 GT/s). Inkl. OC-Benchmarks mit auf 18 GT/s angehobener Speicherleistung. Schade, dass das so spät kommt - und dass die Kapazität immer noch bei 11 GiB klebt.

MfG
Raff

Schick, allerdings sollte ja bald Ampere kommen, ich wurde nix mehr in Turing investieren, der Wertverlust durfte einfach zu heftig sein. Und der Performance Unterschied wohl auch, hoffentlich wird nicht am VRAM gegeizt. 16GB für die 2070/2080 sollten es schon sein. :up:

UV_Freak
2020-05-02, 16:22:31
MSI Geforce RTX 2080 Ti Gaming Z Trio im Benchmark-Test: Die erste "RTX 2080 Ti Super" (https://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/Tests/MSI-Gaming-Z-Trio-Benchmarks-Review-1348817/)

Die erste Karte mit effektiv 8.000 MHz Speichertakt (16 GT/s). Inkl. OC-Benchmarks mit auf 18 GT/s angehobener Speicherleistung. Schade, dass das so spät kommt - und dass die Kapazität immer noch bei 11 GiB klebt.

MfG
Raff
1400 eier LOL

aufkrawall
2020-05-02, 16:25:41
16GB für die 2070/2080 sollten es schon sein. :up:
Dann dürfte die 3070 >600€ kosten, das wär imho schon irgendwo Wahnsinn. 14GB für die 70 wären ok.

BlacKi
2020-05-02, 16:32:41
die haben schon bei turing weit über 500€ gekostet je, nach modell auch über 600€.

aufkrawall
2020-05-02, 16:36:07
Bei Turing hatte die 2070 auch die gleiche Menge VRAM wie die 80...

UV_Freak
2020-05-02, 16:38:41
Die 3070 wird bis zu 800 kosten mit guten customs. Wenn nicht mehr. 600 Euro Das wird die 3060.

aber wir bezahlen es sowieoso :P

Ex3cut3r
2020-05-02, 16:52:29
aber wir bezahlen es sowieso :P

Wenn ich meinen Job wegen Corona bald verlieren sollte. Dann nicht. Sonst aber gerne :biggrin:

Daredevil
2020-05-02, 17:51:42
Das ist aber btw. auch ein guter Punkt, den Firmen bedenken müssen.
Wenn die Menschen weniger Geld in der Tasche haben, können sie halt auch nicht mehr ausgeben für ne dicke Grafikkarte. Nvidia muss sich da auch irgendwie drauf einstellen, weil sie sonst sitzen bleiben auf ihren Gaming Kram, ganz egal ob in der 1500€ Schiene oder bei den 300€ Modellen.

Hoffe natürlich, das bei dir alles gut läuft. :)

@Raff
Die Z Trio ist aber schon ein wenig lahm, oder? ^^
Ich meine, wenn sie die X ersetzen würde okay. Aber nur wegen schnellerem RAM so nen Abriss zu machen ist doch irgendwie.... Ressourcenverschwendung?
Ich hätte mich btw. auf Z Trio Stock und only RAM OC gefreut bzw. beide mit OC und der Vergleich mit dem RAM, so ne Skalierung von Turing. :)
So kann ich zumindest nicht abschätzen, wieviel schneller die Karte mit RAM OC ist, als eben ohne.
Weil die X läuft mit RAM OC ja auf Z Stock Taktraten mit Samsung Speicher. ^^

Ex3cut3r
2020-05-02, 17:58:43
Das ist aber btw. auch ein guter Punkt, den Firmen bedenken müssen.
Wenn die Menschen weniger Geld in der Tasche haben, können sie halt auch nicht mehr ausgeben für ne dicke Grafikkarte. Nvidia muss sich da auch irgendwie drauf einstellen, weil sie sonst sitzen bleiben auf ihren Gaming Kram, ganz egal ob in der 1500€ Schiene oder bei den 300€ Modellen.

Hoffe natürlich, das bei dir alles gut läuft. :)

Vielen Dank DD. Ich wünsche dir auch alles gute. :up: :smile:

gnomi
2020-05-02, 18:18:38
MSI Geforce RTX 2080 Ti Gaming Z Trio im Benchmark-Test: Die erste "RTX 2080 Ti Super" (https://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/Tests/MSI-Gaming-Z-Trio-Benchmarks-Review-1348817/)

Die erste Karte mit effektiv 8.000 MHz Speichertakt (16 GT/s). Inkl. OC-Benchmarks mit auf 18 GT/s angehobener Speicherleistung. Schade, dass das so spät kommt - und dass die Kapazität immer noch bei 11 GiB klebt.

MfG
Raff

Thx. Auf Diesem Weg auch nochmal Danke an das Lesevorrats-Abo von Euch. Sehr gute Idee. :up: Habe ich gleich wahrgenommen. :wink:

Bei meiner Asus Dual Advanced Evo 2080 aus 2019 habe ich mich bereits sehr gewundert, wie problemlos die mit 16 GT/s läuft. (ist schließlich keine Super)
Eventuell ist da besserer Speicher als bei der Launch Dual drauf. :confused:
Auf meiner alten Palit Gamerock Premium 1080 gingen etwa 10,8-11 GT/s AFAIR. Hier waren aber bereits 10,5 GT/s Standard. Also keine so große Steigerung.
Es bringt nicht extrem was vom Start weg, aber so in der zweiten Lebenshälfte der Karte ist es schon gut, wenn die etwas Reserven beim Speicher hat.

Die 2080 TI ist trotzdem jetzt nicht mehr so spannend finde ich, auch wenn die Preise der nächsten Generation vermutlich wieder hoch werden und eventuell ja auch nicht sofort eine TI kommt.
Es sei denn, man befeuert 4K. Da steckt man in der Zwickmühle.
Bei 3440*1440 reicht mir eine 2080 noch voll. Gerade jetzt, wo auch DLSS 2.0 mehr überzeugt.

@ 3070/3080
Ich könnte mir 12 GB Ram und Launch Preise von 500- 600 und 700-800 Euro etwa vorstellen (Performance so 2080 Super/2080TI bzw. mit RTX plus 50-60%)

3080TI wohl eher 16 GB und 1300€. Und dann 30-40% schneller bei alten Spielen und 80-100% schneller bei RTX.

Natürlich nur Speku. Aber schneller wird es. :D

Dampf
2020-05-02, 19:21:09
Bei Turing hatte die 2070 auch die gleiche Menge VRAM wie die 80...

Glaube die 3080 wird etwas mehr bieten diesmal. Ich gehe von 10 GB VRAM aus.

Ex3cut3r
2020-05-02, 19:23:13
Ihr mit euren krummen Speichermengen, was soll das werden? GTX 970 reloaded? 16GB Basta!! :tongue:

Dampf
2020-05-02, 19:26:00
Ihr mit euren krummen Speichermengen, was soll das werden? GTX 970 reloaded? 16GB Basta!! :tongue:

970? Achwo. Jeder kleine feine MB des Speichers wird natürlich mit drölfzigtausend GB/s angebunden :biggrin:

BlacKi
2020-05-02, 21:44:44
Ihr mit euren krummen Speichermengen, was soll das werden? GTX 970 reloaded? 16GB Basta!! :tongue:
10 ist doch ne glatte zahl.

Ex3cut3r
2020-05-02, 22:19:13
10 ist doch ne glatte zahl.
Für 256 und 384 Bit Interface sicherlich nicht.

BlacKi
2020-05-02, 22:59:07
Für 256 und 384 Bit Interface sicherlich nicht.
was hast du gegen 320 bit?

Ex3cut3r
2020-05-03, 01:27:56
was hast du gegen 320 bit?

Sehr unwahrscheinlich.

=Floi=
2020-05-03, 03:44:30
was hast du gegen 320 bit?

das ist einfach eine blöde spar größe.
Stell dir vor, es gäbe auch 7gb karten und bei der masse an 8gb karten und dem richtigen spiel hast du auf 7gb karten dann ruckler.
Bei dem preis für den die karten verkauft werden, kann man auch mal runde produkte erwarten!

edit
970 GTX

SKYNET
2020-05-03, 20:19:09
oder NV verbaut 1.5er chips... dann hats 12GB und 16.5GB

rm-zocker
2020-05-12, 16:09:50
hallo,

ich könnte vielleicht recht günstig an eine 2080ti gelangen. Nun bin ich mir aber nicht sicher ob mein 600 Watt bequiet Pure Power 10 ausreichend ist.
Auf Webseiten wird ja meistens immer Minimum 650 Watt angegeben.

Fragman
2020-05-12, 16:32:49
hallo,

ich könnte vielleicht recht günstig an eine 2080ti gelangen. Nun bin ich mir aber nicht sicher ob mein 600 Watt bequiet Pure Power 10 ausreichend ist.
Auf Webseiten wird ja meistens immer Minimum 650 Watt angegeben.

Hab nur eine 2080 (die in Spielen knapp 2k MHz macht) aber am selben Netzteil hängen, dazu einen 3700K der mit 4,5GHz läuft und keinerlei Stabilitätsprobleme. Falls das als Info hilft.

Raff
2020-05-12, 16:55:39
Klaro, ein 600-Watt-Markengerät reicht. Erst recht für eine 250-Watt-Sparvariante.

MfG
Raff

rm-zocker
2020-05-12, 17:49:11
danke für die Antworten :-) mal schauen ob ich an die Karte komme :-) für 600 Euro werde ich nicht jedenfalls nicht nein sagen.

Raff
2020-05-12, 22:24:17
Lass dich nicht abziehen. Sicher, dass das kein Betrüger ist? Falls das klappt: Sieh dich als Glückspilz! Hat er noch 1-2 Karten? :biggrin:

MfG
Raff

Radeonfreak
2020-05-12, 22:26:51
Schade das SLI nicht mehr so läuft. Für 600 € würd ich noch ne zweite rein knallen. :freak:

FunkyChris
2020-05-15, 23:41:06
hallo,

ich könnte vielleicht recht günstig an eine 2080ti gelangen. Nun bin ich mir aber nicht sicher ob mein 600 Watt bequiet Pure Power 10 ausreichend ist.
Auf Webseiten wird ja meistens immer Minimum 650 Watt angegeben.

Ich betreibe eine Gaming X Trio (300 Watt Powerlimit + 10%) sogar mit einem 500W Netzteil (Platimax von 2015) absolut problemlos :smile:

Daredevil
2020-06-10, 11:20:40
Isses nur mir neu, oder haut das neue GPUZ Update ne Tonne mehr an Daten raus? ^^
https://abload.de/img/unbenanntb2jex.png

Super, wie "gut" an der Stelle der dritte 6-Pin genutzt wird. :D

Raff
2020-06-10, 11:51:10
Jo, ziemlich cool, dass man nun auch die GPU-Power ausgerechnet bekommt. Das ganze Gedöns wünsche ich mir nun auch für den Afterburner. :D

MfG
Raff

aufkrawall
2020-06-10, 12:19:50
Wobei das Polling des Power-Sensors problematisch sein kann, verursacht mit meiner MSI Pascal mitunter Frame Time Spikes.

Emil_i_Lönneberga
2020-06-10, 17:09:26
@Daredevil

:up:

Ich musste auch gleich das Update installieren.

70508

hq-hq
2020-06-12, 02:51:03
Kann es sein das der Treiber 446.14 buggy ist?

Seit der Installation habe ich im FireFox und Metro Exodus Abstürze mit der 2080Ti.
RAM OC/GPU OC Reduktion helfen nix :redface:

Muss wohl wieder den vom April installieren, habt ihr damit auch Probleme?

Also NVidia Treiberprobleme sind sehr selten, okay ich nehme auch nicht jeden neuen WHQL mit.

FunkyChris
2020-06-12, 09:09:33
Kann es sein das der Treiber 446.14 buggy ist?

Seit der Installation habe ich im FireFox und Metro Exodus Abstürze mit der 2080Ti.
RAM OC/GPU OC Reduktion helfen nix :redface:

Muss wohl wieder den vom April installieren, habt ihr damit auch Probleme?

Also NVidia Treiberprobleme sind sehr selten, okay ich nehme auch nicht jeden neuen WHQL mit.

Hab auch so eine Vermutung. RDR2 in DX12 stürzt plötzlich ab, was sonst immer stabil lief :-/

hq-hq
2020-06-14, 15:34:59
es scheint am Treiber zu liegen... jetzt tut es

das neue GPUz ist echt praktisch

wenn ich das Powerlimit auf 430Watt setze wird ab und zu der PCIe überfahren und die Spannung geht dort auf 11.5V (von 12,1V) runter :biggrin:
da bleiben auf den Leitungen am Board schon 4,5Watt hängen

Daredevil
2020-06-14, 20:52:31
Welches Bios kann man denn so für die Trio X nehmen, wenn es über 400w sein sollen?
Hatte mal eins von Raffs PCGH Bericht runtergeladen, aber das ging im Windows mit dem Flash Tool irgendwie nicht.

Raff
2020-06-14, 23:31:21
Was spricht das Tool denn? Eventuell brauchst du eine andere Version. Am besten unter DOS flashen, das klappt eigentlich immer.

MfG
Raff

hq-hq
2020-06-15, 00:26:17
glaube das hier geht bis 406Watt...

https://www.overclock.net/forum/27716280-post3683.html

das hier kann 1000 ist aber eigentlich für die Strix gedacht

https://filehorst.de/download.php?file=cqktlGdg (https://www.youtube.com/watch?v=NvW_F7fb4bU)

Raff
2020-06-15, 00:55:37
@Daredevil: Schau mal, ich habe die Original-Files hochgeladen (Firmware & Flash-Tool), mit denen ich's gemacht habe. Hatte ich noch herumliegen, natürlich feinsäuberlich einsortiert. :)

https://www.mediafire.com/file/6gb2qrd4znvucx3/MSI_goes_406W.7z/file
Datei von filehorst.de laden (https://filehorst.de/d/dscjjFna)

MfG
Raff

Daredevil
2020-06-16, 12:06:29
Dankeeeeeee! :)
Aber irgendwie geht das unverändert nicht. :(

So schaut das dann aus:
NVIDIA Firmware Update Utility (Version 5.590.0)
Copyright (C) 1993-2019, NVIDIA Corporation. All rights reserved.


Checking for matches between display adapter(s) and image(s)...

Adapter: GeForce RTX 2080 Ti (10DE,1E07,1462,3715) H:--:NRM S:00,B:0A,D:00,F:00


EEPROM ID (C2,2534) : MX MX25U8033E-MX25U8035F 1.65-2.0V 8192Kx1S, page

Current - Version:90.02.30.00.D9 ID:10DE:1E07:1462:3715
GPU Board (Normal Board)
Replace with - Version:90.02.0B.40.56 ID:10DE:1E07:1462:3715
GPU Board (Normal Board)

Update display adapter firmware?
Press 'y' to confirm (any other key to abort):

Und danach kommt dann:
https://abload.de/img/unbenanntjokbt.png

Muss ich mir dann nen Boot Stick basteln, wa?

Hier schein das Problem wohl gelößt mit einem anderen Bios von einer anderen Karte: https://www.overclock.net/forum/69-nvidia/1706276-official-nvidia-rtx-2080-ti-owner-s-club-848.html

Es sollte aber nicht in zuviel Bastelei ausarten, deswegen fand ich auch schade, dass das nicht ging. :D
Ich will die Kiste ja bald nochmal verkaufen und jetzt nicht zu tode flashen. ^^

HisN
2020-06-16, 13:29:34
Edit: Nur die Hälfte gelesen.

hq-hq
2020-06-16, 22:27:20
Dankeeeeeee! :)
Aber irgendwie geht das unverändert nicht. :(

So schaut das dann aus:


Und danach kommt dann:
https://abload.de/img/unbenanntjokbt.png

Muss ich mir dann nen Boot Stick basteln, wa?

Hier schein das Problem wohl gelößt mit einem anderen Bios von einer anderen Karte: https://www.overclock.net/forum/69-nvidia/1706276-official-nvidia-rtx-2080-ti-owner-s-club-848.html

Es sollte aber nicht in zuviel Bastelei ausarten, deswegen fand ich auch schade, dass das nicht ging. :D
Ich will die Kiste ja bald nochmal verkaufen und jetzt nicht zu tode flashen. ^^


vielleicht darum?

>>Important Starting in the second half of 2019, many cards are now sold with a newer XUSB FW Version ID, preventing a lot of BIOSes in the TechPowerUp BIOS Collection from being flashed to the card through NVFlash, so be aware when purchasing a brand new card, you might not be able to flash a higher power limit BIOS on it. Example: MSI Gaming X Trio purchased in Q3 2018 shipped with the 0x70060003 firmware (Build Date: 2018-08-29), the same MSI card purchased a year later in Q3 2019 shipped with the firmware 0x70100003 (Build Date: 2018-12-28), this newer card also had a different EEPROM (WBond instead of ISSI). Note: The BIOS and firmware can be overwritten by force using an external programming/test clip, bypassing NVFlash.<<
https://www.overclock.net/forum/69-nvidia/1706276-official-nvidia-rtx-2080-ti-owner-s-club.html

sven2.0
2020-06-20, 01:16:07
Meine im Jan 2019 gekaufte Gainward Phoenix 2080Ti GS spinnt irgendwie. Bei manchen Spielen (Apex, Overwatch) mit viel FPS rastet so alle 30-Sekunden der Lüfter aus und dreht auf 100% obwohl die Temps stimmen.. kein OC nix am laufen.

BlacKi
2020-06-20, 10:23:07
mein beileid

sven2.0
2020-06-20, 12:17:52
Ahso hatte gehofft das jemand vielleicht was ähnliches hat/hatte und mir nen Tip geben kann, ist ja ne populäre Karte :D.. ich seh schon einen RMA Alptraum auf mich zukommen da das nicht in allen Spielen passiert

hq-hq
2020-06-20, 12:40:54
hm, du könntest mal Downsampling aktivieren und z.b. den Superposition Benchmark in 4k im Dauer-Loop laufen lassen, VSync ausschalten natürlich.
Sollte wunderbar ins Powerlimit laufen und der Karte einheizen. Parallel dazu noch das neue GPUz mit 100ms Polling laufen lassen. :freak:

sven2.0
2020-06-20, 13:44:36
hm, du könntest mal Downsampling aktivieren und z.b. den Superposition Benchmark in 4k im Dauer-Loop laufen lassen, VSync ausschalten natürlich.
Sollte wunderbar ins Powerlimit laufen und der Karte einheizen. Parallel dazu noch das neue GPUz mit 100ms Polling laufen lassen. :freak:

ja mal gemacht, mit 126% Powerlimit im Afterburner dreht sie gleich komplett ab, siehe Screenshot. Vor allem die Fans dann unabhängig voneinander, und der %Speed Sensor zeigt nichts an. RPM gehen dann auf 3200 hoch.

hq-hq
2020-06-20, 13:58:29
ja mal gemacht, mit 126% Powerlimit im Afterburner dreht sie gleich komplett ab, siehe Screenshot. Vor allem die Fans dann unabhängig voneinander, und der %Speed Sensor zeigt nichts an. RPM gehen dann auf 3200 hoch.

aha, kannst du mal z.B. über den Afterburner die Lüfterdrehzahl manuell in 10% Schritten bis 100% hochsetzen, flippt er dann zb bei 50% auch aus? Hast du in jüngster Zeit mal den Treiber aktualisiert?

TurricanM3
2020-06-20, 14:25:55
Hat hier jemand mit ner Titan RTX Fehler in Games mit nicht genügend vram oder unknown 3D device? Bei mir startet nicht mal was. Nur so komische Fehler. Treiber reinst hat nichts gebracht.

BlacKi
2020-06-20, 14:30:26
ja mal gemacht, mit 126% Powerlimit im Afterburner dreht sie gleich komplett ab, siehe Screenshot. Vor allem die Fans dann unabhängig voneinander, und der %Speed Sensor zeigt nichts an. RPM gehen dann auf 3200 hoch.
versuche mal eine custom lüfterkurve mit dem afterburner. versuche auch mal den treiber mit ddu komplett zu löschen und neu zu installieren.

Geächteter
2020-06-20, 14:38:58
ja mal gemacht, mit 126% Powerlimit im Afterburner dreht sie gleich komplett ab, siehe Screenshot. Vor allem die Fans dann unabhängig voneinander, und der %Speed Sensor zeigt nichts an. RPM gehen dann auf 3200 hoch.
Hat meine Releasekarte 2080-nonTi mit Blower-Kühler auch. Liegt bei mir am Powerlimit. Das muss bei mir auf 90 oder tiefer, ansonsten wird's in Intervallen immer wieder laut, weil das PWM-Signal urplötzlich auf 100 % hochknallt, dann wieder abfällt und dann wieder irgendwann wieder hochknallt. Bei Quake 2 RTX war es durch den konstant hohen power draw besonders schlimm. Lüfterkurve, GPU temp oder temp limit im Afterburner haben keinen Einfluss. Viele Karte und/oder die Treiber kommen wohl nicht so richtig mit dem Energiemanagment klar, weil das wohl ein bisschen buggy ist, siehe allein daran, dass der auslesbare Leerlaufverbrauch bei den meisten Karten absolut ungenaue Grütze ist.
Da die Karten aber eh ab 0,9 Volt beginnen, massiv ineffizient zu werden und ich sie eh mit 84 % laufen lasse, ist es mir egal.

sven2.0
2020-06-20, 14:51:34
versuche mal eine custom lüfterkurve mit dem afterburner. versuche auch mal den treiber mit ddu komplett zu löschen und neu zu installieren.
Werd ich heute abend mal machen. gerade Apex mit 100% Powerlimit ausprobiert und da ist es interessanterweise nur ein Lüfter der immer hochdreht.

Hat meine Releasekarte 2080-nonTi mit Blower-Kühler auch. Liegt bei mir am Powerlimit. Das muss bei mir auf 90 oder tiefer, ansonsten wird's in Intervallen immer wieder laut, weil das PWM-Signal urplötzlich auf 100 % hochknallt, dann wieder abfällt und dann wieder irgendwann wieder hochknallt.

Ja das würde Sinn machen, aber meine Karte macht das erst seit kurzem, vorher lief sie anderthalb Jahre ohne Probleme, sogar mit OC

Daredevil
2020-06-20, 14:54:38
Wird sie vielleicht einfach schlicht wärmer als sonst?
Weil ne ältere Karte hat halt schmandige WLP und "seit kurzem" haben wir ja durchaus schon wieder sommerliche Temperaturen.

sven2.0
2020-06-20, 14:56:15
Nö, Temps sind gut, um die 70Grad, max 75.. únd selbst wenn, das ist ne 1000Eur Karte, die geht in RMA bevor ich den Kühler abbaue

Geächteter
2020-06-20, 15:09:39
Ja das würde Sinn machen, aber meine Karte macht das erst seit kurzem, vorher lief sie anderthalb Jahre ohne Probleme, sogar mit OC
Evtl. liegt es an der verwendeten Treiberversion? Ich weiß selber nicht, ob es meine Karte von Anfang an gemacht hat, weil ich sie zu Beginn an gedrosselt habe. Und dann vor einiger Zeit bei Quake mal aus Neugier auf 100 oder 115 % laufen lassen habe. So schlagartig von knapp 50 auf 100 % mit einem Blower-Kühler auf über 5 Sone und auf dem Tisch, sorgen für einen Hallo-Wach-Effekt.

Radeonfreak
2020-06-20, 18:17:13
Hab das letzte Woche auch mal gehabt bei fast 28° Raumtemperatur und irgend nem Benchmark. Kurz auf Turbo und dann war wieder Ruhe.

Das kommt aber wirklich nur mal vor wenns schweineheiß ist.

sven2.0
2020-06-20, 18:42:16
Treiber mit DDU deinstalliert, neu installiert und etwas Apex Legends gezockt. Selbiges Bild. Interessant ist das der Fan Speed % Sensor keine Erhöhung der Drehzahl ausgibt, während Fan 1 einfach mal intervallmäßig total ausflippt.
Denke irgendwo gibts nen Hotspot auf der Karte. Da die GPU Temp aber immer im grünen Bereich ist wird Paste wechseln wohl nix bringen.. ich schreib mal Gainward an.

Ex3cut3r
2020-06-20, 18:50:26
Hat hier jemand mit ner Titan RTX Fehler in Games mit nicht genügend vram oder unknown 3D device? Bei mir startet nicht mal was. Nur so komische Fehler. Treiber reinst hat nichts gebracht.

:biggrin: Du lebst auch irgendwie in einer anderen Welt oder? Wer hat denn hier außer du eine Titan RTX? Die Leute nagen unter anderem wegen Corona am Hunger Tuch oder kaufen sich max eine 5700XT für max 450€ und du fragt wer auch eine 3000€ GPU hat? ;D

Außerdem, ob es auch für dich noch Sinn gemacht hat, jetzt noch eine Titan Turing zu kaufen, mit dem bevorstehenden rls. der Ampere Generation, stelle ich auch mal als fragwürdig dar. Der Wertverlust durfte heftig werden.

Aber gut, ist dein Geld/Leben. :up:
Vlt. solltest du mal einen Psychiater aufsuchen, der Zwang nach der schnellsten HW kann auch eine Sucht sein. Ist wirklich ernst gemeint.
Ansonsten no offense natürlich. :smile:

Slipknot79
2020-06-20, 18:53:29
Meine im Jan 2019 gekaufte Gainward Phoenix 2080Ti GS spinnt irgendwie. Bei manchen Spielen (Apex, Overwatch) mit viel FPS rastet so alle 30-Sekunden der Lüfter aus und dreht auf 100% obwohl die Temps stimmen.. kein OC nix am laufen.


Das hatte ich als die Graka auf 82°C ging, und das war oft der Fall, dann drehte die Shice sprunghaft voll auf. :mad: Hauptgrund warum nun ne Wakü drin ist. (y)

Was bei dir auch sein kann (falls der Lüfter DC ist): Wenn der Chip für die Spannungsregelung überhitzt, dann macht das Teil voll auf, damit es selbst nicht so viel Abwärme produziert zwecks Lüfterdrosselung.
Vielleicht liegt da ne Wärmedämmschicht Staub auf dem Chip? :redface:

BlacKi
2020-06-26, 13:22:43
anderes thema. mit den kommenden ampere grafikkarten soll wohl auch deutlich mehr strom verbraten werden.

ich hab überlegungen ob ich nicht auf den morpheus II wechseln werde anstatt eines high end kühlers von den herstellern.

ist der morpheus II als besser einzuordnen, als die besten kühler von MSI/GB oder EVGA?

Daredevil
2020-06-26, 13:26:36
Morpheus:
https://gzhls.at/i/30/98/1683098-n1.jpg

Trio X:
https://i.ytimg.com/vi/mesjpWh4SLE/maxresdefault.jpg

#Abwarten
Schnall doch ne AiO WaKü drauf, dann haste wenigstens nen richtige Unterschied.

BlacKi
2020-06-26, 13:35:52
ich sehe es auch als störend an, das der monster morph nur 10cm breit ist und nur254mm lang ist.

aber auf den morph kann ich 25mm dicke lüfter, ergo besser und damit auch leiser, montieren und der luftstrom kann besser durch den kühler fließen.

das der trio kühler breiter und länger ist, macht ihn somit nicht automatisch besser.

von flüssigkühlungen hab ich erstmal genug.

Daredevil
2020-06-26, 13:39:55
Ich habe nicht gesagt, dass der Trio Kühler besser ist. Wieso reimt sich hier eigentlich jeder im 3DCenter Dinge zusammen?

Ist halt die Frage, was du erwartest.
Mit dem TrioX schaffste 300w bei 1300rpm, mit ner Palit 2080ti Gaming Pro schaffste das gleiche bei 1500rpm und die unterscheiden sich ca. um 300g Gewicht.

Da stößt man so langsam auch an die Grenzen des Sinnvollen, weil ein Morpheus wird dir das ganze dann nicht bei 600rpm ausspucken können, was eine AiO eben durchaus kann.
Mit der LuKü kommst du da an die Grenze, dass der nächste Schritt WaKü ist.

BlacKi
2020-06-26, 13:57:17
deine aio bemerkungen in ehren, aber meine frage ist, ob der morph besser ist als das was die boardhersteller verkaufen.

ich finde die frage legit, ich frage ich echt, warum die frage weder hier noch auf yt beantwortet werden kann.

sozusagen: ex blower karte mit morph vs msi trio x.

Emil_i_Lönneberga
2020-06-26, 16:18:05
Sieht die Karte nach dem Kühlerwechsel so aus:

https://www.hardwareluxx.de/images/cdn01/71FA5F8DEED545A998862ECF13FD1DB0/img/4050200EE12C4D74B65044BE47C8523C/ZOTAC-GeForceRTX2080Ti-AMPEdition-12_4050200EE12C4D74B65044BE47C8523C.jpg

https://www.kitguru.net/wp-content/uploads/2019/11/pcb4-1.jpg

--> https://www.raijintek.com/de/products_detail.php?ProductID=137


Ist dein PCB nach dem Kühlerwechsel blank:

https://i.imgur.com/TppHGDP.jpg

--> Bei einem Kühler wie dem der Trio (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12348960#post12348960) bleiben.

Jetzt könntest du bei Nvidia Karten zur eigenen Beruhigung sagen, "Die hohen Temperaturen die ich nicht weiß, machen mich nicht heiß".



Dritte Möglichkeit: Einmal in seiner Lebenszeit Geld in die Hand nehmen und sich in Zukunft bei seiner teuren und bei der Kühllung u.U. anspruchsvollen Grafikkarte als Resultat über Lautstärke und Kühlung keine Gedanken mehr machen zu müssen.

Dumdidum (https://www.aquatuning.de/AtsdCartSave/load/key/4e51d0157c0f0fa5edf51f7864f2f498)


Für die AiO Fanboys auch eine Möglichkeit: https://ezmodding.com/B-FRD-Series

Ob die was taugt? Keine Ahnung. Möglicherweise sind die Lüfter und Pumpe Schrott aka laut. Der Kühler kommt von Bykski und sollte daher brauchbar sein.

Daredevil
2020-06-26, 17:10:01
deine aio bemerkungen in ehren, aber meine frage ist, ob der morph besser ist als das was die boardhersteller verkaufen.

Na wenn du so fragen möchtest. > Nein, ist er nicht.
Denn du verlierst potentiell deine Garantie, erstellst u.U. Hotspots und das ganze nimmt Platz weg ohne Ende.
Zudem schmälerst du Instant der Wert deiner Karte, da sie verbastelt ist.
Zeitgleich ist das ganze auch noch teurer, als wenn du schon das fertige Paket kaufst und es kühlt nicht überdurchschnittlich besser.

Bist du jetzt zufrieden? :D

BlacKi
2020-06-26, 17:36:46
beim richtigen hersteller gibts kein garantieverlust.

4-5slots sind sowieso frei.

wenn die karten hinterher wieder auf dem alten kühler sitzt merkt keiner die bastelarbeit. demnach kein wertverlust.

hotspots? für was sind die kühlblöcke mit dabei?

teurer? ich sehe das eher günstiger. den kühler kann ich weiter verwenden. der wertverfall einer 1000€ karte ist niedriger als der einer 800€ karte.

und wenn dadurch die core temps niedriger sind ist es ein gewinn.

scheiße, sieht so aus als würde ich mir 2 ampere karten kaufen und 1 zurückgehen lassen nach dem testen. einfach um die neugier zu stillen.

Daredevil
2020-06-26, 17:50:50
Was ist denn für dich ein "richtiger Hersteller?
Bastelarbeit wird insofern gesehen, weil Schrauben Abnutzungserscheinungen haben, das sieht man halt.
"Kühlblöcke", welche du an die Platine klebst kühler weder besser als ein aktiver Block, noch sind sie Rückstandslos zu entfernen, wenn du sie "richtig" befestigst.

Wo siehst du denn hier den Vergleich 800€-1000€?
Scheiß Karte: https://geizhals.de/zotac-gaming-geforce-rtx-2080-ti-blower-zt-t20810a-10p-a1915389.html
Gute Karte: https://geizhals.de/zotac-gaming-geforce-rtx-2080-ti-amp-zt-t20810d-10p-a1870905.html
40€ Differenz -Arbeitszeit

Zudem kann natürlich eine "scheiß Karte" einen niedrigen Wertverfall haben, wenn niemand aber diese Karte kaufst, außer du, musst du die danach verschenken. ( Grüße gehen raus an die Ref Versionen von AMD )
Du kannst dir auch einfach Temperaturen von den jetzigen Vega Karten anschauen mit welchen, die den Raji da drauf geschraubt haben, dann nimmst du z.B. ne Nitro+ als Vergleich uns hast dein Ergebnis.

Also ich bleibe erstmal dabei. LuKü nachrüsten ist Schwachsinn, solange es potente Auswahlmöglichkeiten gibt. Der Schritt zur WaKü wäre der einzig sinnvolle.
Ich hab ne 1080 Ref mal billig gekauft ( 350€ ) vor ein paar Jahren und einen Eiswolf drauf geschraubt. Das war sinnvoller, als sich für 500€ ne Custom zu holen und günstiger obendrein.
Als ich dann aber ne 1080ti Aorus/Vega64 Nitro+/2080ti Custom in der Hand gehalten habe, war das halt nicht mehr so sinnig.

Was versprichst du dir eigentlich dadurch?
Weil auch hier ist der aktuelle Stand: Eine gute LüKü macht 90-95% der Möglichkeiten bei der Leistung aus, für die restlichen 5-10% kommt nur ne WaKü in Frage.
Eine jetzige Highend 2080ti bekommste bei 300-350w auf ~2Ghz bei 1300-1500rpm. Mit ner WaKü kommst du im besten Fall auf ~2150-2200, sprich hier ist der Gewinn auch eher was fürs Ego.

*Ausnahme: Du bist Dargo und hörst, wenn ne Karte mit 50rpm mehr dreht.

BlacKi
2020-06-26, 18:04:35
Was ist denn für dich ein "richtiger Hersteller?
Bastelarbeit wird insofern gesehen, weil Schrauben Abnutzungserscheinungen haben, das sieht man halt.
"Kühlblöcke", welche du an die Platine klebst kühler weder besser als ein aktiver Block, noch sind sie Rückstandslos zu entfernen, wenn du sie "richtig" befestigst.

ich hab zig grafikkarten wiederverkauft, niemand hat nach den schrauben köpfen gefragt, noch im nachhinein sich beschwert wenn man die WLP erneuert hat.


Wo siehst du denn hier den Vergleich 800€-1000€?
Scheiß Karte: https://geizhals.de/zotac-gaming-geforce-rtx-2080-ti-blower-zt-t20810a-10p-a1915389.html
Gute Karte: https://geizhals.de/zotac-gaming-geforce-rtx-2080-ti-amp-zt-t20810d-10p-a1870905.html
40€ Differenz -Arbeitszeit

sicher ist der amp kühler besser als der blower, aber sicher nicht einer der besten. es gibt sicher deutlich bessere kühler wie zb. den von der trio x. aber wenn der morph noch besser kühlt, sehe ich keinen grund ihn nicht in betracht zu ziehen. am anfang lagen zwischen den blowern und der trio x 200€, das wird mit ampere zu beginn ähnlich sein.




Was versprichst du dir eigentlich dadurch?
wo wir erneut, ich glaub zum dritten mal bei meiner ausgangsfrage sind, die immernoch nicht beantwortet ist, auch wenn ich jetzt verstanden habe, das es erfahrungen oder messungen dazu wohl noch nicht gibt.

den vergleich der vega karten werde ich mir mal ansehen, wobei ich mir da nicht viel verspreche wegen den unterschiedlichen bedingungen.

Daredevil
2020-06-26, 19:16:38
Sind wir mal gespannt, was vllt. der Raff dazu sagt, der hat die Kiste ja schon mal verbaut. :)

mjs
2020-06-27, 18:08:13
ich hab zig grafikkarten wiederverkauft, niemand hat nach den schrauben köpfen gefragt, noch im nachhinein sich beschwert wenn man die WLP erneuert hat.


sicher ist der amp kühler besser als der blower, aber sicher nicht einer der besten. es gibt sicher deutlich bessere kühler wie zb. den von der trio x. aber wenn der morph noch besser kühlt, sehe ich keinen grund ihn nicht in betracht zu ziehen. am anfang lagen zwischen den blowern und der trio x 200€, das wird mit ampere zu beginn ähnlich sein.



wo wir erneut, ich glaub zum dritten mal bei meiner ausgangsfrage sind, die immernoch nicht beantwortet ist, auch wenn ich jetzt verstanden habe, das es erfahrungen oder messungen dazu wohl noch nicht gibt.

den vergleich der vega karten werde ich mir mal ansehen, wobei ich mir da nicht viel verspreche wegen den unterschiedlichen bedingungen.
Ich habe meine Vega (Referenz) umgebaut auf einen Eiswolf Pro:
Die Temperaturen haben sich im Schnitt von 70-85 Grad (Drosselung) auf ~45 Grad eingependelt (bei höheren Taktrate und trotz mittlerweile höheren Anforderungen wg. anderem Monitor).
Habe es aber erst nach Ende der Garantie gemacht, als ich wusste, ich möchte die noch min. bis Big Navi verwenden (Weiterverkauf ist aber auch nicht geplant).

sven2.0
2020-06-30, 16:32:43
Treiber mit DDU deinstalliert, neu installiert und etwas Apex Legends gezockt. Selbiges Bild. Interessant ist das der Fan Speed % Sensor keine Erhöhung der Drehzahl ausgibt, während Fan 1 einfach mal intervallmäßig total ausflippt.
Denke irgendwo gibts nen Hotspot auf der Karte. Da die GPU Temp aber immer im grünen Bereich ist wird Paste wechseln wohl nix bringen.. ich schreib mal Gainward an.

So ich hab am Wochenende dann doch den Kühler runtergemacht und die bei Gainward haben bei den Thermalpads doch gut geschlampt. Die Spawas vorne am Ausgang sollten direkt auf den Heatpipes liegen, aber das zugehörige Thermalpad lag einfach geknüllt in einer Ecke. Sauber drauf gelegt (soweit das mit den alten Pads noch ging, vielleicht mach ich mal neue drauf), neue Paste drauf und Ruhe ist. Gefühlt laufen die Lüfter bei gleichen Temps jetzt auch leiser.
Nur falls mal jemand ähnliche Probs hat

Daredevil
2020-06-30, 21:22:18
Aber erst Mimimi machen. :D Geht doch!

hq-hq
2020-06-30, 23:34:42
So ich hab am Wochenende dann doch den Kühler runtergemacht und die bei Gainward haben bei den Thermalpads doch gut geschlampt. Die Spawas vorne am Ausgang sollten direkt auf den Heatpipes liegen, aber das zugehörige Thermalpad lag einfach geknüllt in einer Ecke. Sauber drauf gelegt (soweit das mit den alten Pads noch ging, vielleicht mach ich mal neue drauf), neue Paste drauf und Ruhe ist. Gefühlt laufen die Lüfter bei gleichen Temps jetzt auch leiser.
Nur falls mal jemand ähnliche Probs hat

guad :up:

bei meiner Strix sind die Temps auch gefühlt ein wenig schlechter geworden, hab mir mal einen gebrauchten Barrow geholt der hoffentlich gut passt.
(erstmal mit der Zahnbürste die Kupferkrümel rausgeschrubbt)

hätte vor meinen alten 360 Radiator zu reaktivieren,

Pumpe -> phobya 1260 -> GPU -> 360 Radi -> CPU -> Pumpe


mal sehen wann ich die Muße dafür finde

Daredevil
2020-07-06, 13:22:10
Aus aktuellem Anlass, wieso gibt es eigentlich so große Unterschiede beim Idle verbrauch? What the Hell ist da los? :D
Ich habe jetzt drei Werte hier, die komplett unterschiedlich sind.

Palit 2080ti Dual ( Die günstigste ):
http://gpuz.techpowerup.com/19/01/25/83d.png

MSI 2080ti Trio ( Die High End Karte )
https://abload.de/img/1109kn2.gif

KFA 2080ti ( Referenz? ):
https://abload.de/img/kfan6ki6.gif
An der Stelle, wir haben einen neuen Spitzenreiter beim Idle Verbrauch. Die Asus zeigt mir im Idle 8w an, sowas habe ich bislang noch nie gesehen bei ner 2080ti. :eek:
https://abload.de/img/asusgfkwv.gif

aufkrawall
2020-07-06, 13:28:06
Ohne Wattmeter-Gegenprüfung können das komplette Fantasiewerte sein.

JVC
2020-07-06, 14:23:56
An der Stelle, wir haben einen neuen Spitzenreiter beim Idle Verbrauch.
Die Asus zeigt mir im Idle 8w an, sowas habe ich bislang noch nie gesehen bei ner 2080ti. :eek:

Na und ? Meine 1080Ti Super OC was weis ich was ....... (250Watt)
benötigt zwischen 18-22Watt mindestens!

Vergisst man den Bildschirmschoner, sind es fast 50Watt...

Wohingegen die 390(340Watt) genau 0Watt benötigt, sobald ich den Monitor aus schalte.

M.f.G. JVC

Daredevil
2020-07-06, 17:31:56
Ist ja schön für dich, ich mag halt Effizienz.

Die Asus 2080ti macht nen höheren Takt mit ( ~ca. 2050-2080mhz statt ~2000Mhz ) als die MSI. Dafür ist sie lauter ( Nicht laut, aber lauter ) und hat den schlechteren Speicher ( Asus +800, MSI + 1200 ).
Das die Strixx aber kein ZeroFan ist, verstehe ich nicht wirklich.
Die MSI Karte ist knapp 5.4% schwerer, Moaaaar Metal! :D

Werde dann wohl bei der MSI bleiben, ist das rundere Paket. :)

BlacKi
2020-07-06, 18:24:12
Na und ? Meine 1080Ti Super OC was weis ich was ....... (250Watt)
benötigt zwischen 18-22Watt mindestens!

Vergisst man den Bildschirmschoner, sind es fast 50Watt...

hast du ein OC bios geflashed? das oc bios auf meiner 2070s hat den idle verbrauch verdreifacht. sie taktet auch nichtmehr unter 300mhz.

aber hey, nach 5min ist die kiste eh im energiesparmodus und bald hab ich nen stromsparpc zum surfen usw.

JVC
2020-07-06, 20:10:57
hast du ein OC bios geflashed?

Die ist total original 250Watt.

Mir wurde schon oft gesagt "ich sei ein besonderer fall"...
(weil mein Rechner die halbe Zeit mit ausgeschaltetem Monitor läuft)

M.f.G. JVC

Ben Carter
2020-07-07, 12:51:21
Mein Rechner läuft ~14-18 Stunden am Tag mit ausgeschaltetem Monitor. Ob die Karte dabei 0, 5 oder 30W braucht ist mir "egal". Egal im Sinne von, dass es mich eine Hand voll Euros im Jahr kostet. Solange die Karte dabei still ist, kümmert es mich nicht weiter. Trotzdem ist weniger natürlich besser. :)

Aber sehr interessant, ich hab letztens das Kühlkonzept in meinem PC etwas verändert, da meine Palit Gaming Pro 2018 Ti auch laut wurde. Die Raumtemperatur ging sommerbedingt hoch, allerdings war das auch letztes Jahr schon und da machte sie keinen Radau. Bislang hatte ich es aber so, dass die Luft, die ins Gehäuse kam, durch den AIO der CPU ging. Den Radiator habe ich von vorne nach oben verlegt, womit ich zwar leider den oberen Deckel öffnen musste, aber es hat ca. 2°C bei der GPU gebracht und somit ist wieder Ruhe.

Vielleicht sollte ich auch mal den Kühler runterbauen und die WLP austauschen.

lg Ben

Ex3cut3r
2020-07-07, 13:56:10
An der Stelle, wir haben einen neuen Spitzenreiter beim Idle Verbrauch. Die Asus zeigt mir im Idle 8w an, sowas habe ich bislang noch nie gesehen bei ner 2080ti. :eek:
https://abload.de/img/asusgfkwv.gif

Nicht übel. Da kann ich nicht mithalten.

https://abload.de/img/1j7k43.gif

r3ptil3
2020-07-07, 14:44:37
Mein Rechner läuft ~14-18 Stunden am Tag mit ausgeschaltetem Monitor. Ob die Karte dabei 0, 5 oder 30W braucht ist mir "egal". Egal im Sinne von, dass es mich eine Hand voll Euros im Jahr kostet. Solange die Karte dabei still ist, kümmert es mich nicht weiter. Trotzdem ist weniger natürlich besser. :)

Aber sehr interessant, ich hab letztens das Kühlkonzept in meinem PC etwas verändert, da meine Palit Gaming Pro 2018 Ti auch laut wurde. Die Raumtemperatur ging sommerbedingt hoch, allerdings war das auch letztes Jahr schon und da machte sie keinen Radau. Bislang hatte ich es aber so, dass die Luft, die ins Gehäuse kam, durch den AIO der CPU ging. Den Radiator habe ich von vorne nach oben verlegt, womit ich zwar leider den oberen Deckel öffnen musste, aber es hat ca. 2°C bei der GPU gebracht und somit ist wieder Ruhe.

Vielleicht sollte ich auch mal den Kühler runterbauen und die WLP austauschen.

lg Ben

Hatte das gleiche "Problem" mit der Palit Gaming Pro OC 2080 TI.

Mein erster Gedanke war auch frische WLP drauf, jedoch machte mir da Palit ein Strich durch die Rechnung - die Garantie erlischt sofort, sobald der Kühler resp. das Siegel an der Schraube zerstört ist.

Selbst auf Anfrage, ob ich den Kühler lediglich für den Tausch der WLP öffnen könnte (schriftliche Bestätigung im Falle eines Garantiefalls), wurde mir dies vom Support verneint - Karte einschicken hiess es.

Würde mir das also zwei Mal überlegen mit dem Öffnen.

x-force
2020-07-07, 16:28:45
Palit ein Strich durch die Rechnung[...]


Würde mir das also zwei Mal überlegen mit dem Öffnen.

ich würde überlegen, ob es nochmal eine palit wird :freak:

hq-hq
2020-07-07, 20:06:53
also das Siegel wird nicht beschädigt wenn man über eine Spitzzange Panzertape klebt und damit die Schraube rausdreht, die sitzt ja nicht fest sonst würde die Feder nicht mehr federn können :freak:

hab endlich mal den Barrow draufgeschraubt und verdammt eine Schraube vergessen weil ich die Backplate behalten wollte, das eine Schräubchen ist aber wohl nicht so wichtig :biggrin:

ca. 60min Metro Exodus 1440p Endlosschleife auf dem Zug, 60fps 320Watt Powerlimit, Wassertemperatur zur GPU 28,5°C
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=70750&d=1594145009

Rückseite wird etwas mehr als handwarm.

Für 75€ gebraucht +7€ "Phobya" Wärmeleitpads wieder Bastelspaß.
Push-In FTW!

Erwähnenswert hier vielleicht, dass ich mir einen B-Ware Alphacool NexXxoS ST30 Full Copper 280mm Radiator (wie neu) für 22,99€ bei Aquatuning bestellt hab, der ist zwischen GPU und CPU...

Metro Exodus 1440p maxed (Raytraycing Hoch) 430Watt Powerlimit, VSync OFF, Wasser zur GPU 29°C nach ca. 20min
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=70759&stc=1&d=1594159961
Mit Luftkühlung hatte ich auf 320Watt gedrosselt weil sonst sehr laut, effektiv nur ~1900MHz bei knapp 70°C

BlacKi
2020-07-07, 20:14:39
die sitzt ja nicht fest sonst würde die Feder nicht mehr federn können :freak:
die sitzen schon anschlag, aber nicht anschlag pcb sondern anschlag gewindeende zwischen kühler und schraube. federn tut schraubenkopf <->pcb.

hq-hq
2020-07-07, 20:55:26
die sitzen schon anschlag, aber nicht anschlag pcb sondern anschlag gewindeende zwischen kühler und schraube. federn tut schraubenkopf <->pcb.

meinst, hm ja jedenfalls geht das sehr leicht aufzuschrauben :freak:

Strix Schrauben, Siegel intakt https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=70756&stc=1&d=1594148095

BlacKi
2020-07-07, 21:53:02
2nm sagt iggy

aber die idee ist trotzdem nice

Geächteter
2020-07-08, 03:22:36
Nicht übel. Da kann ich nicht mithalten.

https://abload.de/img/1j7k43.gif
Hast du mal mit dem Wattmeter gegengemessen? Bei mir werden gute 21 Watt angezeigt, sind aber ca. 11 Watt in "echt". Differenz Gesamtsystem zwischen dGPU und nur iGPU. Power State der CPU auf C3 gelocked, ohne PCIe geht der sonst auf C6 runter bei Intel.

Daredevil
2020-07-08, 13:08:54
Ohne Wattmeter-Gegenprüfung können das komplette Fantasiewerte sein.
Zumindest ändert sich der Verbrauch, wenn man die Lüfter hoch und runter regelt, also irgendwas passiert da schon.
War es bei Nvidia nicht die regel, dass der Verbrauch ( also mal von der Netzteil Effizienz abgesehen... ) nicht akkurat war?

Ich habe btw. doch gerade wieder die Asus drin und kann mich nicht so richtig entscheiden. :D

MSI Trio X: ~2000/8000@1300rpm@330w
Asus Strixx: ~2050/7900@1800rpm@300w

Asus hat den besseren Chip, MSI die bessere Kühlung. :(
Selbst wenn ich die MSI auf 100% Lüfter drehe, kommt der Takt nicht mit der Asus @ Std mit.
Sind zwar nur 2.5%, aber die 2Ghz Grenze ist dort garantiert geknackt, auch bei 4K Stuff und Compute Kram. :>

BlacKi
2020-07-08, 13:14:05
kannst du mal bei der strixx nach dem takt und verbrauch schauen, im spiel mortal shell im epic launcher?

Daredevil
2020-07-08, 13:41:37
Ich hab das Spiel nicht. :o(

aufkrawall
2020-07-08, 13:57:37
War es bei Nvidia nicht die regel, dass der Verbrauch ( also mal von der Netzteil Effizienz abgesehen... ) nicht akkurat war?

Nach meinen Erfahrungen kann man an Sensor-Werte für tiefe Stromspar-Modi allgemein (also nicht nur auf GPUs bezogen) ein Fragezeichen machen, bis man es anderweitig überprüft hat. Insbesondere, wenn es nur um ein paar W geht.
Unter Last sollte auch bei NV der PT-Wert dem Realverbrauch schon ziemlich gut entsprechen.

BlacKi
2020-07-08, 14:14:47
Ich hab das Spiel nicht. :o(
oben beta...

Daredevil
2020-07-08, 14:19:03
Ach, ich habe einfach nur auf das Spiel geklickt.
Was willste denn wissen, Stock Werte oder OC Scanner bzw. Max OC?

BlacKi
2020-07-08, 14:31:10
ob du die 2ghz mit der strix halten kannst^^ einfach screen mit rtsseinblendung.

hq-hq
2020-07-08, 21:30:58
ob du die 2ghz mit der strix halten kannst^^ einfach screen mit rtsseinblendung.

gibts da eine fordernde Szene?

Die Strix hat ein Standard(120%)-Powerlimit von 320Watt, sollte zumindest in 1440p für >2GHz reichen :smile:
(260 W * 120 % = 325 W; 32% sind bei mir 320Watt)

BlacKi
2020-07-08, 21:33:57
für was stehen die 32%?

meine 2070 super braucht schon für 2ghz 300w. ich hab das gefühl, turing ist nochmals sensitiver für temperaturen als es schon pascal war.

hq-hq
2020-07-08, 21:47:46
für was stehen die 32%?

meine 2070 super braucht schon für 2ghz 300w. ich hab das gefühl, turing ist nochmals sensitiver für temperaturen als es schon pascal war.

1% = 10Watt, wenn mit dem Bios 32% Power angezeigt werden sind das 320Watt
Stimmt, mit der Temperatur fängt sie an deutlich mehr zu saugen, aber ob das mehr als 10% sind bei 25°C Tempdiff glaub ich jetzt auch nicht.

juhu Level 1 geschafft obwohl mich der Obermotz gekillt hat :biggrin:

https://abload.de/thumb/dingsowkqc.jpg (https://abload.de/image.php?img=dingsowkqc.jpg)

BlacKi
2020-07-08, 22:04:23
ich meine den verlust von takt je nach temp. bei pascal hatte ich so den eindruck man verliert vl 40mhz 44° vs 75°, bei turing scheint das wohl bei fast 100mhz zu liegen.

Daredevil
2020-07-08, 23:25:42
ob du die 2ghz mit der strix halten kannst^^ einfach screen mit rtsseinblendung.
Guckstu hier:
ajMbmGR76rc

Da muss aber der "Performance Mode" der Asus ran, mit dem Quiet Mode geht die Karte auf 80°C und der Takt sackt auf 1950 ab.
Wichtig bei 2Ghz sind, ums biegen und brechen unter 70°C zu kommen, du siehst das ja in dem Video.
Generell ist die Karte Power limitiert, wenn man aber mehr Power gibt und die Karte auf über 70°C geht, sackt ebenfalls der Takt ab.

Die MSI werkelt hier so mit ~1950Mhz.
Die ist nicht Power limitiert, aber dafür zu warm, weswegen die Power-Auslastung auch nicht dauerhaft auf 100% anliegt, der Takt wird ja gedrosselt.

hq-hq
2020-07-10, 02:04:03
Der SuperPos Benchmark [4k optimized] hat sich jetzt angeboten Wasser mit Luftkühlung zu vergleichen, hatte den mal mit 100ms Polling in GPUz aufgezeichnet.

Bei dem GPU OC bin ich mir nicht mehr ganz sicher ob das +130MHz bei Luft waren leider nimmt einem das 1000Watt Bios die Kontrolle über Spannungsstufe/Taktstufe, die Spannung macht sozusagen was sie möchte.

Luft VS Wasser:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=70786&stc=1&d=1594339297

Delta Temperatur und Leistungsaufnahme (beachtet den Spannungssprung unter Luft):
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=70785&stc=1&d=1594339297

(mit Wasser fehlt ein Teil der LED Beleuchtung und die Lüfter [die damals @100% liefen], der tatsächliche Unterschied bei der Leistungsaufnahme wird also etwas kleiner sein)

BlacKi
2020-07-10, 11:53:25
wenn man nen drecks kühler auf turing hat, verliert man sicher nochmals 50mhz. bei meiner alten karte war das wirklich nicht so schlimm.

Daredevil
2020-07-10, 12:03:54
Triple Slot sollte er sein, sonst wird’s laut.
So viele Gurken gibts bei Turing eigentlich nicht, man hat fast das Gefühl, als hätte Nvidia da seine Finger im Spiel.

Ist halt auch ne Frage des Anspruchs, wenn man 2ghz knackt mit Lukü, sind 2,1 mit WaKü drin und mit Glück 2,2, wenn man in der Silicon lottery gewinnt.
Also liegen 10% brach zwischen 2Ghz Lukü leise und 2.1-2.2ghz WaKü leise.
Bei Pascal war ne WaKü ja auch schon begrenzt sinnvoll, nur für die letzten wenigen Prozente.

hq-hq
2020-07-10, 21:07:53
Triple Slot sollte er sein, sonst wird’s laut.
So viele Gurken gibts bei Turing eigentlich nicht, man hat fast das Gefühl, als hätte Nvidia da seine Finger im Spiel.

Ist halt auch ne Frage des Anspruchs, wenn man 2ghz knackt mit Lukü, sind 2,1 mit WaKü drin und mit Glück 2,2, wenn man in der Silicon lottery gewinnt.
Also liegen 10% brach zwischen 2Ghz Lukü leise und 2.1-2.2ghz WaKü leise.
Bei Pascal war ne WaKü ja auch schon begrenzt sinnvoll, nur für die letzten wenigen Prozente.

ja bis auf die Lautstärke ist erstmal kaum ein Unterschied, schätze der größte Unterschied wird beim RAM OC sein, sowohl auf der Grafikkarte als auch auf dem Mainboard...

immerhin kann man jetzt bedenkenlos länger ~400 Watt durch die Karte jagen, bei 1440p und VSync@60Hz betrifft das nur ein einziges Spiel -> Metro Exodus

- zur Strix OC, dort werden, soweit ich weiss, selektierte GPUs verwendet, darum sollten >2GHz immer erreicht werden.

Daredevil
2020-07-10, 21:27:33
Meine 1080 hat ja auch 2150Mhz durchgehend gebracht mit Shunt Mod und ner WaKü mit 420er Radi. :D Ist schon geil.
Je teurer die GPU, desto lohnender ist das ganze.

Wenn ich mir ne Asus für 1200€ kaufe und für 150€ ne WaKü draufschraube und 10% Leistung gewinne, ist das ganze ja sogar rational sinnvoll. :)
Wollte damit nicht WaKü schlecht reden, hat ja alles seinen Sinn und Zweck.

BlacKi
2020-07-10, 21:34:46
Triple Slot sollte er sein, sonst wird’s laut.
ja und nein. er taktet halt einfach 100mhz runter bei mitte 70°. bei mitte 60° sinds nur ca 50mhz verlust.

Raff
2020-07-11, 09:42:49
Triple Slot sollte er sein, sonst wird’s laut.
So viele Gurken gibts bei Turing eigentlich nicht, man hat fast das Gefühl, als hätte Nvidia da seine Finger im Spiel.

Ist halt auch ne Frage des Anspruchs, wenn man 2ghz knackt mit Lukü, sind 2,1 mit WaKü drin und mit Glück 2,2, wenn man in der Silicon lottery gewinnt.
Also liegen 10% brach zwischen 2Ghz Lukü leise und 2.1-2.2ghz WaKü leise.
Bei Pascal war ne WaKü ja auch schon begrenzt sinnvoll, nur für die letzten wenigen Prozente.

Selbst wenn du die "one in a million" hast, die 2,2 GHz dauerhaft packt, skaliert die Leistung gegenüber 2,0 GHz nicht linear. Nie. Ergo sind die 10 Prozent eher theoretischer Natur, die einen über die 19 TFLOPS (SP) bringt. :D

MfG
Raff

Lowkey
2020-07-21, 14:51:07
Die 2080Ti soll mit dem USB-C Port das schnellste Ladegerät für ein aktuelles Iphone sein?

Dr.Doom
2020-07-21, 14:54:23
Hmm, endlich ergibt es einen Sinn, weswegen die Dinger so teuer sind: es sind nur Apple-Ladegeräte mit angebauter Spiele-GraKa.

Raff
2020-07-21, 14:56:00
:ulol:

Hmm, aber warum fehlt die Ladebuchse bei vielen (trotzdem teuren) Custom-Designs?

MfG
Raff

gedi
2020-07-21, 18:23:49
Die Antwort scheint einfach: Nur die FEs sind zertifiziert :) Demnächst gibt es ein iPhone 12 im Bundle mit ner 3080TI, da Apple ja keine Ladegeräte im Lieferumfang bereit stellt ;)

Zergra
2020-07-21, 18:54:39
Die Antwort scheint einfach: Nur die FEs sind zertifiziert :) Demnächst gibt es ein iPhone 12 im Bundle mit ner 3080TI, da Apple ja keine Ladegeräte im Lieferumfang bereit stellt ;)

Für nur 3000€ ? :freak:

gedi
2020-07-21, 19:47:17
Japp, das iPhone 1500€ und die Ti für 1800€. Im Bundle allerdings für spottbillige 3000€. Da fehlt allerdings nochmals das Ladekabel, welches mit 25€ aufschlägt.

gedi
2020-07-21, 20:01:26
Die Preise welche aufschlagen werden, werden sowohl als auch, böse. Ich denke gute Customs werden mit mehr als 2k zu Brette gehen, bei AMD mögen es vielleicht ohne TC 300€ weniger sein. Es ist traurig

Emil_i_Lönneberga
2020-07-25, 10:17:50
2080Ti mit Fullcover AiO:

https://www.igorslab.de/alphacool-eiswolf-2-im-test-gegen-eine-nvidia-geforce-rtx-2080-ti-mit-300-und-380-watt-mit-etwas-eigeninitiative-eine-fast-perfekte-loesung/3/

Raff
2020-07-26, 00:53:14
Ziemlich lecker, aber auch reichlich spät. Ich bin gespannt, ob sowas auch direkt für die neuen Dickschiffe verfügbar sein wird. Da braucht's ja "nur" neue Kühlblöcke.

MfG
Raff

Linmoum
2020-07-26, 01:53:29
Auf jeden Fall deutlich sinnvoller als der gesamte Geldverschwendungs-AiO-Quatsch für CPUs.

Bei sowas wäre ein direkter Vergleich mit den dicken (Kühl-)Brocken wie einer Trio X mal interessant.

Daredevil
2020-07-26, 09:22:48
Gegen so einen Eisblock mit ordentlich Radiatorfläche kommt keine LuKü an, ne WaKü funktioniert bei GPUs deutlich besser als auf einer CPU.

Das gute bei den Alphacool Geschichten ist aber aber die Erweiterbarkeit :)
Klemmste den Eisblock an eine 420er Eisbär und du hast Radiatorfläche bis zum abwinken.

Emil_i_Lönneberga
2020-07-26, 14:16:14
Ziemlich lecker, aber auch reichlich spät. Ich bin gespannt, ob sowas auch direkt für die neuen Dickschiffe verfügbar sein wird. Da braucht's ja "nur" neue Kühlblöcke.

MfG
Raff

Du bist ja vom Morpheus II, Hybrid 140 und Xtreme III/IV verwöhnt worden. Igor hat The Witcher 3 in 4K am Laufen gehabt und im entsprechenden Wärmebild bei 300W und 1000 U/min, was Igor mit den Schrottlüftern als leise bezeichnet, wird es langsam eng. Ich kann nicht abschätzen, wie es bei Ampere und RDNA2 bei den Speichertemperaturen aussehen wird.

Mit einem 360mm statt dem 240mm Radiator wirst du bei den Karten vermutlich eher glücklich bzw. bist dann auf der sicheren Seite.


Messung bei 1000 U/min

Ist das System noch an? Flüsterleise, denn ich messe nur noch knapp 32 dB(A). Die Kühlperformance bei 300 Watt ist noch akzeptabel, aber für meinen Geschmack fehlen jetzt vor allem im Bereich der VRM und eines Speicherblocks die Reserven für den 380-Watt-Durchlauf. Die GPU selbst meldet 65 °C bei 300 Watt aber die Speichertemperaturen an der Unterseite sollten bei den 380-Watt-Messungen dann schon weit über 80 °C liegen, was mir persönlich einfach zu hoch wäre. Bei 300 Watt ist das mit den 77 °C gerade noch akzeptabel, wenn auch nicht wirklich toll. Aber selbst jetzt hört man die Pumpe nicht, Kompliment!


Selbst Alphacool nennt bei den Lüftern, die neuerdings der Eisbaer und Eiswolf beiliegen, die Prioritäten:

Kurz gesagt: Kirmesbeleuchtung hat vor Laufruhe und Kühlleistung den Vorzug erhalten.

https://www.igorslab.de/community/threads/alphacool-eisb%C3%A4r-pro-an-die-grenzen-gebracht-ein-aio-erlk%C3%B6nig-im-exklusiven-hands-on-test.2954/#post-64499


Zu den Lüftern... uns ist durchaus klar, das man mit anderen Lüftern eine bessere Performance erhält. Aber der Trend ist eben.... desto schöner es blinkt, desto besser verkauft es sich.
Und ihr könnt mir ruhig glauben, dass allen voran unser CEO lange dagegen war auf RGB zu setzen, weil für ihne Performance alles ist. Und auch für einige Kollegen in der Firma ist das ganze RGB gedöns ein Dorn im Auge. Aber am Ende zählt nicht immer die persönliche Meinung sondern man muss auf die Wünsche des Marktes eingehen. Und wir merken ganz besonders beim Vergleich Eisbaer und Eisbaer Aurora, die sich im Grunde erstmal hauptsächlich durch die Beleuchtung unterscheiden, das sich RGB besser verkauft. In einigen anderen Ländern kann man im Grunde nichts mehr verkaufen wenn es nicht blinkt, das betrifft nicht nur den aisatischen Markt.

Ich persönlich mag dezente Beleuchtung. Eher so ein Hintergrund glimmen. Das ist sehr angenehm..... aber mein privater PC steht in einer Ecke wo ich ihn in der Regel eh nicht sehe :p




Es wird aber wie beim Eiswolf 1 vorbefüllte Kühler und Radiatoren in unterschiedlichen Größen geben, die sich kombinieren lassen.
Die AiO kommt wieder nur mit eine 240mm Radiator.

https://www.igorslab.de/community/threads/alphacool-eiswolf-2-im-test-gegen-eine-nvidia-geforce-rtx-2080-ti-mit-300-und-380-watt-mit-etwas-eigeninitiative-eine-fast-perfekte-l%C3%B6sung.2970/#post-64632

Der Einzelkauf von vorbefülltem GPU Fullcover und Radiator wird bei der Eiswolf II wie schon beim Vorgänger aber preislich über der AiO mit 240mm Radiator liegen. Lüfter müssen in diesem Fall auch noch ergänzt werden, da sie beim vorbefüllten Radiator nicht beiliegen.


Gegen so einen Eisblock mit ordentlich Radiatorfläche kommt keine LuKü an, ne WaKü funktioniert bei GPUs deutlich besser als auf einer CPU.

Das gute bei den Alphacool Geschichten ist aber aber die Erweiterbarkeit :)
Klemmste den Eisblock an eine 420er Eisbär und du hast Radiatorfläche bis zum abwinken.


https://www.aquatuning.de/AtsdCartSave/load/key/6af5c4971a7bd6c2edaa76c4f402aebb


Bei 355€ für die Eisbaer Aurora 420 und Eiswolf II 240 sind beide AiO Wasserkühlungen kombiniert aber nur für Faulpelze interessant.

Emil_i_Lönneberga
2020-08-01, 10:14:31
Ein weiterer Test mit anderer Lüfterbestückung:

https://www.hardwareluxx.de/index.php/artikel/hardware/kuehlung/53650-schon-nahe-an-der-custom-kuehlung-die-alphacool-eiswolf-2-aio-im-test.html?start=5

--> Besser gleich zwei Arctic P12 für 12€ in den Warenkorb legen.

https://www.aquatuning.de/search?sSearch=1019588+1019586

wolik
2020-08-02, 18:51:09
Ich wollte mal Fragen, gabs überhaupt Information wieviel Transistoren (von 18 Mlrd) "verbrauchen" Tensor und RT Cores? Danke, wenn jemand sich gleiche Gedanken gemacht und was dazu gefunden.

Troyan
2020-08-26, 20:09:12
Wer meint Probleme mit der Temperatur seiner Karte zu haben, sollte die Wärmeleitpaste überprüfen. Scheint wohl ein richtiges Problem zu werden. Meine Gigabyte Gaming OC hat seit Monaten massive Probleme gehabt. Hab das auf den Sommer geschoben. Yeah, nach Google-Suche habe ich dann die Erklärung gefunden: Wärmeleitpaste hat sich aufgelöst, Kühler kann die Hitze nicht mehr abführen, nVidia lässt in die Biose fail-safe einbauen.

Also Kühler montiert, gesehen, da ist kaum noch was und neue aufgetragen. Nun kann ich wieder problemlos mit 360W spielen und die Temperatur liegt bei <84°C.

Ex3cut3r
2020-08-26, 20:15:47
War bei meiner RTX 2080 Gaming OC von Gigabyte auch der Fall. Ist immer schlechter geworden, habe dann erstmal das PT runter gesetzt, damit ging es erstmal, war natürlich auch keine Dauer Lösung. Wurde mit der Zeit immer schlechter....also auch mal recheriert....die Paste die Gigaybte verwendet, soll wohl der größte Billig Dreck der Welt sein.....also neu draufgeschmiert. Kühler ging ja einfach runter, 6 Schrauben. Backplate kann draufbleiben. Und seitdem alles wieder, wie zum Rls damals. Heißt 225W bei nur 64 Grad mit 45% Lüfttersteuerung aka. 1400 RPM. ;D ;D

Bei mir hatte sich schon nach 1 Jahr also Herbst 2019 (gekauft Herbst 2018) eingestellt. Richtiger Fail von Gigabyte, manche haben ja die Gesamte Grafikkarte eingeschickt....

BlacKi
2020-08-26, 20:23:58
ok, mach ich bei meiner 2070 gigabyte oc morgen auch mal.

Daredevil
2020-08-26, 20:37:09
Halloooo? Das ist doch nichts neues (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=583632), aber generell Empfehlenswert! :D

Troyan
2020-08-26, 20:39:20
Naja, der Unterschied ist, dass die Paste sich bei Turing-Karten auflöst und nicht einfach "schlechter" ist. Sprichwörtlich habe ich mehr von meinem Die gesehen als von irgendwelcher WLP...

BlacKi
2020-08-26, 21:00:30
die karte, die ich habe, hat vl 50-100h gelaufen. aber wenn ich mir die temps von exe anschaue, sollte meine karte deutlich besser temps mit frischer paste bekommen. ich könnte mir vorstellen das auch die temps die ausgelesen werden nicht korrekt sind, bzw. teile des dies noch schlechtere temps haben. das hab ich bei meiner 1080ti erlebt, als die montage durch mich nicht perfekt erfolgte. die karte hatte gute temps, aber auf der rückseite gab es einseitige hot spots. eine erneutes de/montieren hat dann die abstürze behoben.

in meinem fall habe ich eh keine garantie mehr auf der karte, weil die rechnung fehlt.

Ex3cut3r
2020-08-26, 21:21:26
Welche Gigaybte ist das denn? Ich hoffe doch nicht die Windforce? Die hat einen viel kleineren Kühler als die Gaming OC.
Und die Aorus haben Sie bei Turing auch verkackt, weil der mittlere Lüfter kleiner ist als die beiden äußeren.

Radeonfreak
2020-08-26, 23:36:37
Hmm interessant. Ich hab seit 2 Tagen das Problem das die Karte in benchmarks ( in Spielen noch nicht) sehr schnell warm wird und der Lüfter dann kurz auf 4500 Umdrehungen springt, also so 200 Prozent.

Das klingt dann wie ein Düsenjet beim Landeanflug. :freak:

Wollte die Karte erst mal am Wochenende ausbauen und mal auf Arbeit richtig luftdruckreinigen.

Hatte auch schon überlegt die Karte zur RMA anzumelden, Garantie ist noch bis Mitte Oktober drauf.

Aber wenns an der Leitpaste liegt wird wohl eine Lüfterreinigung nicht viel bringen oder?

r3ptil3
2020-08-26, 23:46:26
Aber wenns an der Leitpaste liegt wird wohl eine Lüfterreinigung nicht viel bringen oder?

Nicht wirklich - Temperaturverlauf messen als erstes und schauen ob die Temperatur gleichmässig raufgeht und wie hoch maximal.

Klingt aber sehr nach "trockener" WLP.

Zum Glück hast du eine Gigabyte und darfst den Kühler aufmachen.
Ein Grund wieso ich keine Palit oder Gainward mehr kaufen würde.

Daredevil
2020-08-26, 23:47:08
Naja, der Unterschied ist, dass die Paste sich bei Turing-Karten auflöst und nicht einfach "schlechter" ist. Sprichwörtlich habe ich mehr von meinem Die gesehen als von irgendwelcher WLP...
Ja wie, die "löst sich auf" ? :D

@Radeonfreak
Den Turbo Modus kenne ich auch, wenn meine Asus über 85°C geht, ist dann halt die letzte Rettung. ^^
Ist jetzt die Frage... WLP nachpappen oder reklamieren, Ampere steht ja vor der Tür. :D

BlacKi
2020-08-26, 23:47:22
Gigabyte GeForce RTX 2070 SUPER Windforce 8G

die mit dem extra usb c auf der slotblende. ich verstehe was du meinst, die gaming oc ist 2,5 slot, meine ist 2 slot.

trotzdem, das wechseln hat 5-6 grad gebracht bei fester drehzahl und 250w. allerdings liegen auch durch die niedrigeren temps auch 15mhz mehr an.

ich hab auch fotos gemacht, aber ausser das die wlp nur sehr dünn aufgetragen war, konnte ich nichts feststellen. ich poste die morgen mal.

an alle die jetzt versuchen den kühler runter zu reissen, ich hab mir meine vram pads zerstört. ich habe neue bestellt, aber solange muss es eben wlpaste tun, was scheinbar keine probleme macht.

Radeonfreak
2020-08-26, 23:50:14
Zum Glück hast du eine Gigabyte und darfst den Kühler aufmachen..

Wo steht das?

@Radeonfreak
Ist jetzt die Frage... WLP nachpappen oder reklamieren, Ampere steht ja vor der Tür. :D

Nun ja, würd sie schon gern noch 1-2 Jahre behalten. Seh jetzt keinen Bedarf für eine neue.

Troyan
2020-08-26, 23:51:23
Naja, weg eben. Die WLP scheint auszutrocken. Da ist nichts mehr, was man als "Paste" bezeichnen könnte...

Hmm interessant. Ich hab seit 2 Tagen das Problem das die Karte in benchmarks ( in Spielen noch nicht) sehr schnell warm wird und der Lüfter dann kurz auf 4500 Umdrehungen springt, also so 200 Prozent.

Das klingt dann wie ein Düsenjet beim Landeanflug. :freak:

Wollte die Karte erst mal am Wochenende ausbauen und mal auf Arbeit richtig luftdruckreinigen.

Hatte auch schon überlegt die Karte zur RMA anzumelden, Garantie ist noch bis Mitte Oktober drauf.

Aber wenns an der Leitpaste liegt wird wohl eine Lüfterreinigung nicht viel bringen oder?

War bei mir auch so. Temperatur immer bei 84°C. Wird aber sehr schnell erreicht. Dann dauernd Abwechslung zwischen normaler Kurve und Düsenjet.

r3ptil3
2020-08-27, 00:03:18
Wo steht das?


Siehe Abschnitt "Kühlerwechsel und Übertaktung"
https://www.computerbase.de/2016-09/grafikkarten-garantie-vergleich/

Radeonfreak
2020-08-27, 00:12:09
Hmmmpf. Ich frag mal Morgen meinen Mann ob er sich das zu traut.

Ich selbst würds nicht machen. :freak: Dann doch lieber einschicken, wobei ich da wieder irgend ne Ersatzkarte kaufen müsste, was auch doof ist.

Ex3cut3r
2020-08-27, 00:14:18
@ Radeonfreak kann dir nur empfehlen die Wärmeleitpaste selbst zu tauschen. Ist wirklich easy. (Anleitung für den Kühler auf YouTube) sind nur 7 Schrauben auf der Rückseite, die lösen und dann mit etwas Ruck runter mit dem Ding. Alkohl den Dreck entfernen und neue drauf, hinterher alles wieder drauf machen und staunen. :D

Ist zwar die Gaming OC, die Schritte sollten aber die gleichen sein.

rDvFYd-pPP0

BlacKi
2020-08-27, 00:24:29
versuch dir nicht die stecker/kabel abzureißen beim abziehen.

Ex3cut3r
2020-08-27, 00:28:48
Man kann auch zu einen PC Laden um die Ecke gehen, und das in Auftrag geben. -> Einmal Wärmleitpaste bitte erneuern. ^^

RMA wurde mir zuuuu lange dauern, bis die wieder da ist, oder wer weiß was man da vorgesetzt bekommt. Beste Option IMO selbst machen, aber wenn man sich nicht trautttt.

Slipknot79
2020-08-27, 00:32:23
Wollte die Karte erst mal am Wochenende ausbauen und mal auf Arbeit richtig luftdruckreinigen.


Aber wenns an der Leitpaste liegt wird wohl eine Lüfterreinigung nicht viel bringen oder?


Also du könntest mit Luftdruck kühlen, das sollte doch funzen, eventuell brauchst du dann nicht mal nen Kühler, den Luftdruck einfach auf die blanke GPU draufhalten. :redface:

k0nan
2020-08-27, 11:38:06
@ Radeonfreak kann dir nur empfehlen die Wärmeleitpaste selbst zu tauschen. Ist wirklich easy. (...)

+1

Das hat den Schwierigkeitsgrad "IKEA Möbel" :wink: Das kannst du bzw dein Mann nach Angucken des Videos auf jeden Fall und hinterher biste froh über die deutlich besseren Temps :up: