PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 5070 Ti Review-Thread


Seiten : 1 [2] 3

dllfreak2001
2025-06-02, 18:36:28
Die Karte ist bei "normalem RT" nicht langsamer als eine 9070 XT. Sie bleibt nur bei Shader-Raytracing à la Unreal Engine 5 hinter ihren Möglichkeiten zurück. Aufschlüsselung, falls du es genauer wissen möchtest:

RZ: https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/Tests/Preis-Test-kaufen-Release-Specs-Benchmark-1467270/3/#a3
RT: https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/Tests/Preis-Test-kaufen-Release-Specs-Benchmark-1467270/4/#a1
PT: https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/Tests/Preis-Test-kaufen-Release-Specs-Benchmark-1467270/5/#a1

MfG
Raff

Die Benchmarks kenne ich schon. Die habe ich bzgl. meiner Kaufentscheidung herangezogen. Die Rasterleistung ist schwach und oft kann sich die Karte bei RT nicht vernünftig absetzen bei in Doom TDA ist sie deutlich langsamer als eine 9070xt

Ex3cut3r
2025-06-02, 19:16:08
Im Raster sind Sie fast gleich auf.

Aber im PT ist die 5070 Ti ganze 63% schneller. :freak:

https://s1.directupload.eu/images/250602/k2p3ulwd.png

Dazu besseres Upscaling sowie MFG Trumpf. Und weniger Stromverbrauch. Für 100€ Aufpreis. IHMO worth it.

Dorn
2025-06-02, 19:21:36
P-State nie unter ~28 W. Die 1080 Ti war im gleichen Setup

Edit: Was mich tatsächlich wundert ist, dass die 1080 Ti (16/22nm) in den niedrigsten P-States iirc mit 650 mV lief. Die 5070 Ti (5nm) scheint als unteres Limit dagegen 800 mV zu haben. Oberes Limit sind sie ja beide gleich - 1050 mV.
Idle 30 Watt bei mir und ich frag mich warum die 5070Ti bei allen Modellen 800 mV hat ein Witz wenn man bedenkt bei UV habe ich gerade mal 895 mV unter Volllast. Nvidia ist halt faul geworden...

dllfreak2001
2025-06-02, 23:51:18
Im Raster sind Sie fast gleich auf.

Aber im PT ist die 5070 Ti ganze 63% schneller. :freak:

https://s1.directupload.eu/images/250602/k2p3ulwd.png

Dazu besseres Upscaling sowie MFG Trumpf. Und weniger Stromverbrauch. Für 100€ Aufpreis. IHMO worth it.

Ja sicher, wenn dir zumeist 30 FPS reichen, vielleicht hier und da 50. Dann kannst du sicher deinen nutzen daraus ziehen. Mir macht das Spielen so aber keinen Spass.

Ex3cut3r
2025-06-03, 00:29:40
Ne. Auf 4K reicht locker Performance anstatt wie PCGH Q DLSS benutzt. Dazu dann FG und die Sache ist geritzt. Ausgangsbasis immer so anpassen, das mindenstens 60 FPS besser 70 erreicht wurden, nur dann FG anwenden, mit Reflex. ;)

BlacKi
2025-06-03, 00:44:17
Im Raster sind Sie fast gleich auf.

dlss mit dem transformer modell steht ganz oben. selbst wenn die amd karte zum selben preis 20% schneller wäre, durch die breite verfügbarkeit spielen 1/5 mehr oder weniger performance keine rolle.

ich hab mich gestern über den status der fsr4 verfügbarkeit informiert. solange das nicht besser wird, bleibt amd in den regalen liegen, nicht nur für mich.

grafikkartenhersteller verkaufen mittlerweile software + hardware. selbst wenn die HW gut ist macht das noch lange keine gute gaming karte.

DrFreaK666
2025-06-03, 05:20:17
Ne. Auf 4K reicht locker Performance anstatt wie PCGH Q DLSS benutzt...

Schade dass FSR Performance nicht anbietet. Klarer Punkt für Geforce :ugly:

The_Invisible
2025-06-03, 08:06:25
Schade dass FSR Performance nicht anbietet. Klarer Punkt für Geforce :ugly:

Hilft auch nix mehr bei der lahmen Radeon PT Performance, außerdem gibt's dann noch dlss-rr

Ex3cut3r
2025-06-03, 16:35:15
Schade dass FSR Performance nicht anbietet. Klarer Punkt für Geforce :ugly:

Was soll das bringen, wenn man im PT 63% langsamer als das direkte Konkurrenzmodell? :confused:

Willst du auf UP runtergehen? Dann wird es aber übel mit der Qualität, selbst in 4K und mit FSR 4.

dllfreak2001
2025-06-03, 19:34:22
Was bringt +63% wenn man dann trotzdem bei 35 FPS rumdümpelt und MFG nützt hier doch auch nichts. So eine Performance kann man sich doch gleich in die Haare schmieren.

Ex3cut3r
2025-06-03, 20:38:00
Du musst es halt mit Performance Upscaling kombinieren und dafür andere Raster Settings herunterstellen. Sprich optimized Settings. Ziel ist, Ressourcen fressende Settings runterzustellen, die kaum optisch was bringen, aber viel FPS fressen. Und diese dann mit RT GI oder eben PT zu kombinieren, die den meisten visuellen Unterschied bringen.

Dann bist du mit einer 5070 Ti schon sehr nahe an den 60 FPS avg. am besten noch Overclocking betreiben, auf rund 3,2 Ghz. Bringt nochmal 10% Leistung.

Und dann hast man eine gute Grundbasis für FG. Einfacher ist es mit der 5080. Die nochmal mehr Bums mit sich bringt. Mit der 9070 XT ist das alles hoffnungslos. Bzw. erst mit der nächsten Gen machbar.

dllfreak2001
2025-06-04, 16:45:41
In 1440p auch noch Performance DLSS? Das sieht doch nach nichts aus.
PT ist für mich ein totes Feature, genauso wie RT mit der RTX20er damals.

Ex3cut3r
2025-06-04, 16:51:22
Nein, in 4K DLSS P (Transformer) Ist 1080p Interne Auflösung. Immer noch höher als Q DLSS bei 1440p. (960p)

Psychopat
2025-06-08, 18:33:10
Ich wühle mich gerade durch die Testberichte von Techpowerup (https://www.techpowerup.com/gpu-specs/geforce-rtx-5070-ti.c4243) um zu entscheiden, was für eine 5070 Ti ich haben will. Ist irgendwie nicht so einfach, da gerade eine Entscheidung zu treffen.

Ich hatte mir erst eine Palit GamingPro OC V1 bestellt. Die stellte sich aber als defekt heraus, und ist gerade zurückgeschickt worden. (Also, ich hoffe das Problem war die Grafikkarte, und nicht eine andere Komponente in meinem Setup. Hab auch grad Mainboard, CPU und Netzteil getauscht. Ich konnte der Grafikarte kein Bild entlocken, Lüfter haben auch nicht gedreht.)
Nachdem ich gerade nicht zocken kann, habe ich Zeit Reviews zu lesen...

Für die Palit GamingPro OC V1 habe ich mich ursprünglich entschieden, weil auf der Geizhalsseite dieses Review (https://www.kitguru.net/components/graphic-cards/dominic-moass/palit-rtx-5070-ti-gamingpro-oc-review/) verlinkt ist, das sich ganz gut angehört hat. Zusammen mit nem akzeptablen Preispunkt (842€ bei der Mindfactory) hat das nach nem guten Deal ausgesehen.
Mittlerweile habe ich aber genauer hingeschaut und festgestellt, was ich da gekauft hatte war die V1, und das Review war von der nicht V1. Ich hab etwas gebraucht um den Unterschied rauszufinden. Die GamingPro hat ein Vapor Chamber, die GamingPro V1 nicht (stattdessen Kupferplatte).
Was ich bis jetzt aber noch nicht rausfinden konnte war, wieviel Unterschied das macht. Ich vermute, das Vapor Chamber ist besser.

Bei Techpowerup gibt es diese schöne Messung (https://www.techpowerup.com/review/pny-geforce-rtx-5070-ti-epic-x-rgb-plus-oc/40.html), Lüfter bei gleicher thermischer Last und gleicher Lautstärke zu vergleichen. Also praktisch, wie viel Kühlleistung pro Lautstärke die Lüfter haben.
Da sieht man schön, das die MSI Ventus ziemlich schlecht ist, und die MSI Vanguard das beste was man kaufen kann.

Ich selber hätte gerne eine recht leise Karte, plane aber auch zu undervolten. Durch das undervolten brauche ich dann nicht den besten Kühler, aber was besser als bei der Ventus hätte ich schon gerne. Und ich möchte mich nicht über den Tisch gezogen fühlen, weil der bessere Kühler dann gleich 90€ Aufpreis kostet.
Der Aufpreis ist dann das eigentliche Problem. Geizhals zeigt die billigste Karte bei 800 € (Gainward Phoenix-S bei Alternate). Die billigste Karte mit vernünftigen Kühler wäre dann die PNY Epic-X bei 890€. Vernünftiger Kühler bedeutet hier, Techpowerup hat ihn getestet und er hat dort gute Werte erzielt.
Was mir gerade fehlt sind Tests zu den ganzen Modellen, die Preislich dazwischen liegen. Nachdem bei der Ventus so ein mieser Kühler verbaut ist habe ich die Befürchtung, dass das bei den anderen Herstellern nicht besser ist bei deren billigeren Angeboten.

Steht wer vor ähnlichen Problemen oder hat was erhellendes beizutragen?

The_Invisible
2025-06-08, 18:52:51
In 1440p auch noch Performance DLSS? Das sieht doch nach nichts aus.
PT ist für mich ein totes Feature, genauso wie RT mit der RTX20er damals.

Hwu sagt was anderes, Transformer auch in 1080p noch gut nutzbar

Ex3cut3r
2025-06-08, 19:16:36
Ich wühle mich gerade durch die Testberichte von Techpowerup (https://www.techpowerup.com/gpu-specs/geforce-rtx-5070-ti.c4243) um zu entscheiden, was für eine 5070 Ti ich haben will. Ist irgendwie nicht so einfach, da gerade eine Entscheidung zu treffen.

Ich hatte mir erst eine Palit GamingPro OC V1 bestellt. Die stellte sich aber als defekt heraus, und ist gerade zurückgeschickt worden. (Also, ich hoffe das Problem war die Grafikkarte, und nicht eine andere Komponente in meinem Setup. Hab auch grad Mainboard, CPU und Netzteil getauscht. Ich konnte der Grafikarte kein Bild entlocken, Lüfter haben auch nicht gedreht.)
Nachdem ich gerade nicht zocken kann, habe ich Zeit Reviews zu lesen...

Für die Palit GamingPro OC V1 habe ich mich ursprünglich entschieden, weil auf der Geizhalsseite dieses Review (https://www.kitguru.net/components/graphic-cards/dominic-moass/palit-rtx-5070-ti-gamingpro-oc-review/) verlinkt ist, das sich ganz gut angehört hat. Zusammen mit nem akzeptablen Preispunkt (842€ bei der Mindfactory) hat das nach nem guten Deal ausgesehen.
Mittlerweile habe ich aber genauer hingeschaut und festgestellt, was ich da gekauft hatte war die V1, und das Review war von der nicht V1. Ich hab etwas gebraucht um den Unterschied rauszufinden. Die GamingPro hat ein Vapor Chamber, die GamingPro V1 nicht (stattdessen Kupferplatte).
Was ich bis jetzt aber noch nicht rausfinden konnte war, wieviel Unterschied das macht. Ich vermute, das Vapor Chamber ist besser.

Bei Techpowerup gibt es diese schöne Messung (https://www.techpowerup.com/review/pny-geforce-rtx-5070-ti-epic-x-rgb-plus-oc/40.html), Lüfter bei gleicher thermischer Last und gleicher Lautstärke zu vergleichen. Also praktisch, wie viel Kühlleistung pro Lautstärke die Lüfter haben.
Da sieht man schön, das die MSI Ventus ziemlich schlecht ist, und die MSI Vanguard das beste was man kaufen kann.

Ich selber hätte gerne eine recht leise Karte, plane aber auch zu undervolten. Durch das undervolten brauche ich dann nicht den besten Kühler, aber was besser als bei der Ventus hätte ich schon gerne. Und ich möchte mich nicht über den Tisch gezogen fühlen, weil der bessere Kühler dann gleich 90€ Aufpreis kostet.
Der Aufpreis ist dann das eigentliche Problem. Geizhals zeigt die billigste Karte bei 800 € (Gainward Phoenix-S bei Alternate). Die billigste Karte mit vernünftigen Kühler wäre dann die PNY Epic-X bei 890€. Vernünftiger Kühler bedeutet hier, Techpowerup hat ihn getestet und er hat dort gute Werte erzielt.
Was mir gerade fehlt sind Tests zu den ganzen Modellen, die Preislich dazwischen liegen. Nachdem bei der Ventus so ein mieser Kühler verbaut ist habe ich die Befürchtung, dass das bei den anderen Herstellern nicht besser ist bei deren billigeren Angeboten.

Steht wer vor ähnlichen Problemen oder hat was erhellendes beizutragen?

Ich wurde mehr Geld in die Hand nehmen, und eine MSI Gaming Trio kaufen. Die Vanguard ist beste 5070 Ti die man kaufen kann, leider so gut wie nie lieferbar, und wenn viel zu teuer (1500€)

Ansonsten finde ich noch die TUF solide. Gigabyte Gaming OC ist auch gut, allerdings missfällt mir bei Gigabyte das ständige anlaufen der Lüfter, an - aus und das hörbar. Daher fallen die für mich weg. Rest ist für mich "ramsch" ich bin aber auch jemand, der nicht so kleinkariert ist, und die 100-150€ mehr für eine bessere Custom ausgibt.

aufkrawall
2025-06-08, 19:37:25
Die MSI-Lüfter sind Kernschrott vs. Asus TUF.

Sardaukar.nsn
2025-06-08, 19:58:08
Du könntest auch eine Prime nehmen. Hab die hier ja als 5080er und für eine MSRP 2,5Slot Karte ist die wirklich gut. Pads an den richtigen Stellen, sehr leise Lüfter die auch bis 600rpm runterregeln usw. Hat mir deutlich besser gefallen als die große Gainward Phantom die ich auch hier hatte. Bei mir läuft da auch das 450Watt Bios der 5080 Astral drauf.


Preislage: https://www.idealo.de/preisvergleich/OffersOfProduct/205930766_-geforce-rtx-5070-ti-prime-oc-asus.html

Psychopat
2025-06-08, 20:14:12
Ja, die TUF wäre mein Wahl, wenn sie nicht so überteuert wäre. Da überzeugen mich die Wäremleitepads an der Backplate (https://www.techpowerup.com/review/asus-geforce-rtx-5070-ti-tuf-oc/4.html). Da hatte ja Igor mal nen Artikel zu den Hotspots, und das man die ziemlich einfach beheben kann. Die TUF ist die einzige Karte die ich bisher gesehen habe im Teardown, von der ich glaube Igor wäre mit den Pads zufriden.

Wenn ich dran denke so viel Geld auszugeben, dann sehe ich aber auch noch ne andere Option: Gleich ne 5080 kaufen, und die dafür dann stärker undervolten. Da könnte glatt ein ähnliches Preis/Leistungsverhältnis rauskommen bei gleicher Lautstärke. Die Gainward Phantom (https://geizhals.de/gainward-geforce-rtx-5080-phantom-4915-ne75080019t2-gb2030p-a3382623.html?hloc=at&hloc=de) gibt's bei Alternate für 1150€ und ist die billigste 5080 von der ich vermute, einen halbwegs vernünftigen Lüfter zu haben.

Oder die billigere Variante 9070 XT wählen. Hab gehört unter Linux hat AMD die besseren Treiber (dual boot Linux will ich demnächst aufsetzen).

Ich glaube ich muss da noch bisschen drüber nachdenken. Danke jedenfalls für die Denkanstöße :-)

Edit: Hab mir die Prime näher angeschaut. Die Pads gibt's glaube ich nur bei der 5080er, nicht bei der 5070 Ti. Jedenfalls, wenn man nach den Bildern geht.

https://gzhls.at/i/24/62/3382462-l4.webp Das ist die 5080 Prime, man sieht deutlich die Pads. Sieht auch nach nem Vapor Chamber aus.

https://gzhls.at/i/24/68/3382468-l4.webp Das ist die 5070 Ti Prime, man sieht das da keine Pads sind. Das Vapor Chamber ist auch nicht vorhanden. Das Bild ist aber komisch, ich meiner der Chip fehlt?

Hab gesehen, Die 5080 Prime war auch schon mal bei 1150. Das wäre dann auch ne Option.

Lurtz
2025-06-08, 20:28:51
Die 5070 Ti Prime hat auch Pads:
https://youtu.be/MJudCVyBiFQ?t=399

Psychopat
2025-06-08, 22:16:09
Die 5070 Ti Prime hat auch Pads:
https://youtu.be/MJudCVyBiFQ?t=399

Vielen Dank, genau sowas hatte ich gesucht :-)
Man sieht deutlich, die 5070 Ti Prime hat nen besseren Lüfter als die Ventus.

Die Seitenansicht die ich gefunden habe, ist dann wohl von nem Mockup. Ohne Chip und ohne Pads.

ianm
2025-06-08, 23:01:28
Die MSI-Lüfter sind Kernschrott vs. Asus TUF.

Das stimmt nicht! Ich hatte beide Karten hier und bin von der Asus TUF auf die Gaming Trio gewechselt.

Die MSI Karte ist trotz höherer Lüfterdrehzahl etwas leiser unter Volllast, der RAM lässt sich viel besser übertakten - MSI 3000 MHz ohne Probleme möglich, während die TUF bei 2000 MHz vereinzelt Probleme hatte, und vor allem hat die Gaming Trio das leidliche Spulenfiepen der Asus Karte nicht. Auch wenn das im geschlossenen Gehäuse nicht wirklich wahrnehmbar ist. Günstiger war sie auch noch.

Ich wiederhole mich, wer eine leise Karte haben möchte und meint am Kühler sparen zu können, wird enttäuscht werden. Auch mit UV.

MSI Gaming Trio und Asus TUF sind beides gute Karten.

ianm
2025-06-08, 23:02:58
Vielen Dank, genau sowas hatte ich gesucht :-)
Man sieht deutlich, die 5070 Ti Prime hat nen besseren Lüfter als die Ventus.


Auf jeden Fall, lass bloß die Finger von der Ventus.

Ex3cut3r
2025-06-08, 23:50:43
Sehe ich genauso. Die Vanguard ist nochmal besser. Nur leider viel zu teuer, wenn lieferbar. Das muss man sich mal reinziehen, unter 60 Grad im Gaming beim Chip.

VRAM Temps auch besser, allerdings steht man aktuell vor dem Dilemma. 5070 Ti mit starkem Custom Desing, für 950€, oder aber billigere 5080 für 1100€ aber mit mehr Bums im Chip.

https://s1.directupload.eu/images/250608/3frpberl.png

aufkrawall
2025-06-09, 00:23:11
Das stimmt nicht!

Dann bist du nicht sehr anfällig bezüglich nerviger Heultöne im Frequenzspektrum der Lüftergeräusche. Lehne mich aus dem Fenster und sage: Hat garantiert jede MSI-Karte.

ianm
2025-06-09, 01:17:37
Dann bist du nicht sehr anfällig bezüglich nerviger Heultöne im Frequenzspektrum der Lüftergeräusche. Lehne mich aus dem Fenster und sage: Hat garantiert jede MSI-Karte.
Pauschalaussagen helfen nicht. Ich hatte beide Karten hier und habe meinen Eindruck geschildert. Der deckt sich sehr mit den Ergebnissen von Techpowerup.

Mir da jetzt ein schlechtes Gehör andichten zu wollen ist schon reichlich dumm. Vor allem wenn das Gegenteil der Fall ist und ich übelst empfindlich gegenüber jeglicher unnötiger Geräuschkulisse meines PCs bin und das Geld nicht scheue so viel wie möglich für einen möglichst leisen Betrieb zu tun.

aufkrawall
2025-06-09, 02:52:49
Meine Empirie von irgendwas zwischen 5-10 MSI Karten über die letzten Jahre, inkls. 5090 Vanguard, sagt mir etwas anderes.

ianm
2025-06-09, 09:24:13
Wenn du nicht genau diese beiden Karten vergleichst, kannst du dir deine "Erfahrungen" schenken. Das du hier Äpfel mit Birnen vergleichst, merkst du hoffentlich selbst.

Die Reviews von Techpowerup sind innerhalb und zwischen Generationen von GPUs gut vergleichbar und die Angaben in den letzten Jahren für mich stets nachvollziehbar. Die Ergebnisse konnte ich nach dem Kauf meist bestätigen.

Deine pauschalen Aussagen sind nichtssagend und im Kontext des Threads auch am falschen Platz.

BlacKi
2025-06-09, 10:03:06
warum verkauft eigentlich keiner seine karten mit optionaler funktionalität für 120mm lüftern? dafür würde ich aufpreis zahlen. achja, damit man zig hundert euro aufpreis zahlt für die suprimmodelle. weil zumindest dort die hoffnung mitschwingt, das sie keinen schrott verkaufen.

bei der 4080(s) palit die ich letztens hatte, war es möglich eigene lüfter zu montieren, da man zum entfernen der verbauten lüfter und der shroud kein sigel brechen musste.

dann einfach mit freier software und eigenen lüftern selbst steuern, das fansignal von der karte selbst war unbrauchbar, wohl proprietär. die 3 120mm lüfter waren aber so gut das 750rpm unter vollast liefen, das war nahezu unhörbar.

die tuf lüfter hier bei meiner 3080 hier, machen ihren jop aber sehr gut, schon damals hatte ich ja eine, die hatte auch sehr gute lüfter.

vl wird die nächste karte wieder eine tuf.

aufkrawall
2025-06-09, 19:58:07
Die Reviews
Sagen einen Scheiß darüber aus, ob es nervige Resonanzen bei Drehzahl x oder dem Wechsel von x auf y gibt.

IceKillFX57
2025-06-09, 23:47:26
Bin mit der MSI 5070 TI Trio OC auch Mega happy.
Hab aber das Vanguard SOC BIOS drauf geflasht, was natürlich relativ sinnfrei ist…hat halt nur etwas höheres TDP Limit.
Meine Boostet im Gaming Stock bios auf 2850MHz

Ex3cut3r
2025-06-10, 03:09:34
Wieso so konservativ? 3,2 Ghz sind meistens möglich. 3,1 Ghz fast immer. Oce! Es lohnt sich. 10% sind drin. Ausgehend von Stock. Wann gab es sowas zuletzt?

nVIDIA
2025-06-10, 08:31:41
warum verkauft eigentlich keiner seine karten mit optionaler funktionalität für 120mm lüftern? dafür würde ich aufpreis zahlen. achja, damit man zig hundert euro aufpreis zahlt für die suprimmodelle. weil zumindest dort die hoffnung mitschwingt, das sie keinen schrott verkaufen.

bei der 4080(s) palit die ich letztens hatte, war es möglich eigene lüfter zu montieren, da man zum entfernen der verbauten lüfter und der shroud kein sigel brechen musste.

dann einfach mit freier software und eigenen lüftern selbst steuern, das fansignal von der karte selbst war unbrauchbar, wohl proprietär. die 3 120mm lüfter waren aber so gut das 750rpm unter vollast liefen, das war nahezu unhörbar.

die tuf lüfter hier bei meiner 3080 hier, machen ihren jop aber sehr gut, schon damals hatte ich ja eine, die hatte auch sehr gute lüfter.

vl wird die nächste karte wieder eine tuf.

Meinst du so was hier zum Beispiel? Ist eine Gigabyte Windforce RTX 5080 die ich gerade umgebaut habe. Es sind auch schon für eine Handvoll andere Karten GHETTO-MOD´s verfügbar und das Sortiment wird erweitert werden. Ich warte nur noch auf die passenden Adapterkabel, um die Lüfter mit der Karte zu verbinden.

IceKillFX57
2025-06-10, 09:36:39
Wieso so konservativ? 3,2 Ghz sind meistens möglich. 3,1 Ghz fast immer. Oce! Es lohnt sich. 10% sind drin. Ausgehend von Stock. Wann gab es sowas zuletzt?

und was soll das bringen? :confused:
5-8 FPS?

Mein Beitrag war aber nicht vollständig.
24/7 hab ich die Karte 0.95V@3000MHz

Ist für mich völlig ausreichend.

IceKillFX57
2025-06-10, 09:37:51
Meinst du so was hier zum Beispiel? Ist eine Gigabyte Windforce RTX 5080 die ich gerade umgebaut habe. Es sind auch schon für eine Handvoll andere Karten GHETTO-MOD´s verfügbar und das Sortiment wird erweitert werden. Ich warte nur noch auf die passenden Adapterkabel, um die Lüfter mit der Karte zu verbinden.

Verstehe nicht, warum man nicht direkt eine vernünftige Karte kauft....

nVIDIA
2025-06-10, 10:14:55
Verstehe nicht, warum man nicht direkt eine vernünftige Karte kauft....
Verstehe nicht, warum die Chinesen drüben einfach auf einen neuen Kühler Standard setzen...
Iss ja nich meine Karte, sondern die eines Kunden.

Ex3cut3r
2025-06-10, 11:22:02
und was soll das bringen? :confused:
5-8 FPS?

Mein Beitrag war aber nicht vollständig.
24/7 hab ich die Karte 0.95V@3000MHz

Ist für mich völlig ausreichend.

Weil es umsonst ist? Wieso lässt du Leistung für Lau liegen? Meiner Meinung nach ziemlich dämlich, aber gut, jeder wie möchte. :smile:

Mit OC auf z.B. 3,2 Ghz erreicht man eine Stock 5080.....

basix
2025-06-10, 11:46:12
Lautstärke und Wärmeentwicklung gibt es im Real-Life auch, nicht nur FPS ;)

Ex3cut3r
2025-06-10, 13:07:36
Man muss weder was am PT drehen, sonst noch die Spannung erhöhen. Einfach +300-350 Mhz Offset im AB einstellen.

IceKillFX57
2025-06-10, 15:22:53
Mit OC auf z.B. 3,2 Ghz erreicht man eine Stock 5080.....
´Kann man direkt eine 5080 kaufen, je nach Modell ist es sogar eine saubere Euro/FPS skallierung.

Ahja ist zwar ein geheimtip aber egal.. auch eine 5080 kann man ocen.

PS: soll nicht so giftig klingen wie es tut, hab extrem miese laune wegen RL....

EDIT:
OC hatte ich natürlich schonmal getestet. Das waren je nach Titel gut 13-15FPS on Top aber brauche ich eigentlich nicht.

Bluefox
2025-06-11, 07:50:27
Das stimmt nicht! Ich hatte beide Karten hier und bin von der Asus TUF auf die Gaming Trio gewechselt.

Die MSI Karte ist trotz höherer Lüfterdrehzahl etwas leiser unter Volllast, der RAM lässt sich viel besser übertakten - MSI 3000 MHz ohne Probleme möglich, während die TUF bei 2000 MHz vereinzelt Probleme hatte, und vor allem hat die Gaming Trio das leidliche Spulenfiepen der Asus Karte nicht. Auch wenn das im geschlossenen Gehäuse nicht wirklich wahrnehmbar ist. Günstiger war sie auch noch.

Ich wiederhole mich, wer eine leise Karte haben möchte und meint am Kühler sparen zu können, wird enttäuscht werden. Auch mit UV.

MSI Gaming Trio und Asus TUF sind beides gute Karten.


Danke für deine Eindrücke. :smile:
Ich stehe selber vor dem Kauf einer der beiden Karten; so wird es wohl die MSI, da die etwas günstiger zu haben ist. Hast du beide Karten im Silent BIOS laufen lassen? Und etwas mit z.B. FanControl justiert, oder ist dies gar nicht mehr nötig?

Aktuell bin ich noch mit einer Gigybyte RTX 2080 unterwegs ... Diese hat has leidige Problem mit dem an-/abschalten der Lüfter, sogar im Idle-Betrieb. Ich betriebe sie seit neustem an einem Alienware 3225QF (4K). Hier hoffe ich auf Totenstille im Idle mit der neuen 5070 Ti ...

deepmac
2025-06-11, 09:29:11
Ersteindruck, von einer wassergekühlten 1080 Ti kommend, mit einem 5800X3D.

- Reizt in Benchmarks das Power Limit (300 W) viel eher aus, abseits von Time Spy Graphics Test 2 hat die 1080 Ti nur ganz selten an den 300 W gekratzt, in Spielen eh nie, da war die mit 2050 MHz eher so bei 220 W unterwegs.
- Trotz fettem Kühler offensichtlich schwer zu kühlen, selbst mit drei Lüftern @ 3000 rpm gehen Peaks knapp über 70 °C.
- In Benchmarks erwartungsgemäß Faktor ~2.7 schneller
- Real sieht es eher nach Bestfall Faktor 2 aus.
- Der Idle-Verbrauch verschlechtert sich weiter und weiter. Die 5070 Ti kommt trotz korrektem Heruntertakten und niedrigem (bzw. zahlenmäßig hohem) P-State nie unter ~28 W. Die 1080 Ti war im gleichen Setup wahlweise bei 9 oder 12-13 W. Durch Ausbau Wakü und Lüfterwechsel (da die 5070 Ti zu fettleibig ist um Platz für große Lüfter im Gehäuse zu haben) ist der Systemverbrauch nicht vergleichbar, aber der selbst gegenüber Ada nochmal höhere Verbrauch steht ja auch in allen Reviews drin, also zumindest allen, die sowas messen.
- Wenig überraschend läuft alles was vorher Scheiße lief auch hinterher Scheiße, wie CS2, so gut wie alles mit "-Win64-Shipping.exe" im Namen etc. => Hardware can't fix broken Software.

Ja keine Ahnung. Ist ein nettes Upgrade. Nach gut sieben Jahren ist es aber auch ein ziemliches "wie, mehr hat sich nicht getan in der Zeit?" bisher.
Bei den sich weiter verlangsamenden Fortschritten in Sachen Halbleiterfertigung hält die Karte dann wahrscheinlich zehn Jahre, wenn sie vorher nicht an irgendwelchem Borderline-nVidia-Engineering gestorben ist.

Edit: Was mich tatsächlich wundert ist, dass die 1080 Ti (16/22nm) in den niedrigsten P-States iirc mit 650 mV lief. Die 5070 Ti (5nm) scheint als unteres Limit dagegen 800 mV zu haben. Oberes Limit sind sie ja beide gleich - 1050 mV.

War die 2070 RTX soviel schlechter , als ne 1080 TI ?

hab Faktor 3 von den fps her.

deepmac
2025-06-11, 09:44:02
Ich wühle mich gerade durch die Testberichte von Techpowerup (https://www.techpowerup.com/gpu-specs/geforce-rtx-5070-ti.c4243) um zu entscheiden, was für eine 5070 Ti ich haben will. Ist irgendwie nicht so einfach, da gerade eine Entscheidung zu treffen.

Ich hatte mir erst eine Palit GamingPro OC V1 bestellt. Die stellte sich aber als defekt heraus, und ist gerade zurückgeschickt worden. (Also, ich hoffe das Problem war die Grafikkarte, und nicht eine andere Komponente in meinem Setup. Hab auch grad Mainboard, CPU und Netzteil getauscht. Ich konnte der Grafikarte kein Bild entlocken, Lüfter haben auch nicht gedreht.)
Nachdem ich gerade nicht zocken kann, habe ich Zeit Reviews zu lesen...

Für die Palit GamingPro OC V1 habe ich mich ursprünglich entschieden, weil auf der Geizhalsseite dieses Review (https://www.kitguru.net/components/graphic-cards/dominic-moass/palit-rtx-5070-ti-gamingpro-oc-review/) verlinkt ist, das sich ganz gut angehört hat. Zusammen mit nem akzeptablen Preispunkt (842€ bei der Mindfactory) hat das nach nem guten Deal ausgesehen.
Mittlerweile habe ich aber genauer hingeschaut und festgestellt, was ich da gekauft hatte war die V1, und das Review war von der nicht V1. Ich hab etwas gebraucht um den Unterschied rauszufinden. Die GamingPro hat ein Vapor Chamber, die GamingPro V1 nicht (stattdessen Kupferplatte).
Was ich bis jetzt aber noch nicht rausfinden konnte war, wieviel Unterschied das macht. Ich vermute, das Vapor Chamber ist besser.

Bei Techpowerup gibt es diese schöne Messung (https://www.techpowerup.com/review/pny-geforce-rtx-5070-ti-epic-x-rgb-plus-oc/40.html), Lüfter bei gleicher thermischer Last und gleicher Lautstärke zu vergleichen. Also praktisch, wie viel Kühlleistung pro Lautstärke die Lüfter haben.
Da sieht man schön, das die MSI Ventus ziemlich schlecht ist, und die MSI Vanguard das beste was man kaufen kann.

Ich selber hätte gerne eine recht leise Karte, plane aber auch zu undervolten. Durch das undervolten brauche ich dann nicht den besten Kühler, aber was besser als bei der Ventus hätte ich schon gerne. Und ich möchte mich nicht über den Tisch gezogen fühlen, weil der bessere Kühler dann gleich 90€ Aufpreis kostet.
Der Aufpreis ist dann das eigentliche Problem. Geizhals zeigt die billigste Karte bei 800 € (Gainward Phoenix-S bei Alternate). Die billigste Karte mit vernünftigen Kühler wäre dann die PNY Epic-X bei 890€. Vernünftiger Kühler bedeutet hier, Techpowerup hat ihn getestet und er hat dort gute Werte erzielt.
Was mir gerade fehlt sind Tests zu den ganzen Modellen, die Preislich dazwischen liegen. Nachdem bei der Ventus so ein mieser Kühler verbaut ist habe ich die Befürchtung, dass das bei den anderen Herstellern nicht besser ist bei deren billigeren Angeboten.

Steht wer vor ähnlichen Problemen oder hat was erhellendes beizutragen?

Was ist mit der ? https://www.galaxus.de/de/s1/product/asus-prime-geforce-rtx-5070-ti-oc-16-gb-grafikkarte-54606768?utm_campaign=preisvergleich&utm_source=idealo&utm_medium=cpc&utm_content=2705624&supplier=2705624

The_Invisible
2025-06-11, 10:59:14
War die 2070 RTX soviel schlechter , als ne 1080 TI ?

hab Faktor 3 von den fps her.

Die 1000er hatten noch kein gescheites Upscaling, schon allein durch DLSS4 hat man quasi eine fps Verdoppelung. Zudem alle modernen Features bzw RT-required Games lassen sich starten.

Psychopat
2025-06-11, 18:14:57
Hab mir gerade die Asus Prime bei Galaxus bestellt. :up:

horn 12
2025-06-11, 20:09:43
Hat aber 3x 8 Pin Anschlüssen
Da gelobe ich mir meine Hellhound 9070 XT

DrFreaK666
2025-06-12, 08:31:09
Hat aber 3x 8 Pin Anschlüssen
Da gelobe ich mir meine Hellhound 9070 XT

Wenn er die non-XT meint, dann nicht.
Edit: wir sind ja im NV-Thread. Bin verwirrt ^^

Ex3cut3r
2025-06-12, 19:24:09
Hab mir gerade die Asus Prime bei Galaxus bestellt. :up:

Klasse! Darf ich fragen, was deine bisherige Karte war?

Linmoum
2025-06-16, 18:15:27
Hab heute früh auch bei der Prime zugeschlagen für 791€. Wollte ja eigentlich die 9070 als "Übergangslösung" zur nächsten Gen, nachdem die 4090 ja noch für fast 2000€ wegging. Aber bei unter 800€ für eine Prime war dann nicht viel zu überlegen. War quasi auch die einzige, bei der ich überlegt hätte/habe, weil die Lüfter bei Asus ja sogar auf 500-600rpm runtergehen. Diese Krankheit, dass Hersteller die Lüfter ihrer Karten teilweise erst ab >1200rpm anlaufen lassen, ist mir ein völliges Rätsel. Völlig unnötig und da können mir die Leute von leise erzählen, was sie wollen. Aber zwischen beispielsweise 700rpm und 1200-1400rpm gibt's einfach einen riesigen Unterschied.

Naja, am Ende über 1100€ mehr aufm Konto und die 5070Ti hat trotzdem Power genug bis zur nächsten Generation. Ich hoffe nur, die Prime hat nicht das Asus-typische Spulenfiepen, das seit Ada ja fast schon allseits bekannt ist. :D

aufkrawall
2025-06-16, 18:24:14
Die 5070 Ti hat vielleicht genug Power für die vergangene Generation. :freak:
Ich mein, ich will's jetzt nicht einfach schlecht reden. Aber das 3xMFG sieht auf der 5070 mitunter so grausig aus, dafür bräuchte es eher die doppelten fps als Basis, und nicht popelige +25% der Ti. Wenn die Bildausgabe der Radeon mit VRR nicht so seltsam kaputt wäre, wäre die klar vorzuziehen. DLSS Preset K ist in UE5 auch einfach nur schlecht gegen FSR 4.

Dorn
2025-06-16, 18:55:01
DLSS Preset K ist in UE5 auch einfach nur schlecht gegen FSR 4.rly? Schlecht? Hör doch auf.

Ex3cut3r
2025-06-16, 19:05:19
Die 5070 Ti hat vielleicht genug Power für die vergangene Generation. :freak:
Ich mein, ich will's jetzt nicht einfach schlecht reden. Aber das 3xMFG sieht auf der 5070 mitunter so grausig aus, dafür bräuchte es eher die doppelten fps als Basis, und nicht popelige +25% der Ti. Wenn die Bildausgabe der Radeon mit VRR nicht so seltsam kaputt wäre, wäre die klar vorzuziehen. DLSS Preset K ist in UE5 auch einfach nur schlecht gegen FSR 4.
In klassischen Rasterizer-Spielen mag das noch zutreffen, aber bei Raytracing (RT) und insbesondere Pathtracing (PT) muss die RTX 5070 non-Ti gegenüber der Ti spürbar zurückstecken. Hinzu kommt der Unterschied beim VRAM: 12 GB statt 16 GB.

https://s1.directupload.eu/images/250616/943vyzf3.png

https://s1.directupload.eu/images/250616/vt7d9rpt.png

Quelle: https://www.pcgameshardware.de/Geforce-RTX-5070-Grafikkarte-281032/Tests/Preis-Release-Test-RTX-5070-Ti-vs-5070-1467175/

Ich selbst plane, von einer 3080 Ti OC auf eine 5080 aufzurüsten. Eine 5070 Ti kommt für mich nicht infrage, da fehlt mir einfach ein kleines Stück an Leistung. Und die Palit Pro (billig Custom) gibt es ab 1100,00€ - Die reicht aus.

Linmoum
2025-06-16, 19:11:57
Ich zocke eh fast ausschließlich nur WoW. Ich hab's mit der 9060XT dafür versucht, aber die scheitert in UHD selbst auf komplett low teilweise klar an >200fps, obwohl Classic und diese Settings 20 Jahre alt sind. Minimum eine 9070 hätte es jetzt sowieso werden müssen, damit ich die konstant (abseits der CPU-limitierten Szenen) in WoW schaffe. Wobei ich fast schon das Gefühl habe, dass man für WoW eh auf GeForces setzen muss. Lief früher jedenfalls in Relation dazu auf AMD immer beschissen und Blizzard wird da eh keinen Finger krumm machen.

Ansonsten ist alles andere eh nur Gimmick. Falls ich doch mal MFG in Kombination mit RT/PT nutzen möchte, hab ich die Option dazu. Regler bedienen ist keine große Kunst, damit die Grund-fps dafür hoch genug sind. Steht zudem Asus drauf, lässt sich am Ende auch gut genug wieder verkaufen. Gibt schlimmeres. Und in 2 Jahren wird es sowieso eine 6090.

Sardaukar.nsn
2025-06-16, 21:07:13
@Linmoum Da drücke ich mal die Daumen das deine Prime so gut läuft wie meine 5080er. Ich denke mal für den Preis passt das auf jeden Fall. Der Kühler sollte der gleiche sein. Meinen habe ich gestern durch einen Alphacool Wasserblock getauscht der wohl auch für die 5070ti passt.

https://i.imgur.com/RX8kZuA.jpeg

https://i.imgur.com/NPVNSW3.jpeg

Kurzes Video: https://i.imgur.com/oRIv4T1.mp4

Linmoum
2025-06-18, 00:46:11
Die Prime kam heute (bzw. gestern) schon an, knapp 24 Stunden nach der Bestellung. Das hat schon fast Prime-Ausmaße, wirklich top von Computeruniverse.

Macht 'nen sehr soliden und wertigen Eindruck trotz des Umstandes, dass es eigentlich "nur" ein UVP-Modell ist. Kein ausgeprägtes Spulenfiepen bei dem Exemplar und dass die Lüfter schon mit 500rpm anlaufen, ist einfach nur ein Traum. Umbau auf Wakü hab ich daher auch gar keine Lust, da muss die CPU wohl bis zur 6090 alleine an den drei Mo-Ra hängen. ;D

Durch WoW ist mein Ziel aktuell sowieso nur, sie so tief wie möglich mit UV zu bekommen, um den Monitor (UHD@240Hz) auszufahren. Default zieht sie ca. ~140W im 225fps-Limit. Unlimitert liegt sie bei ~335fps und ca. 177W, was dem Verbrauch der 9060XT zuvor entspricht. Die in der Szene aber keine 160fps gepackt hat. Dass der Unterschied derart gewaltig ist, hätte ich echt nicht gedacht. War für mich fast schon selbstverständlich, dass die 9060XT für so ein olles und vor allem 20 Jahre altes Spiel langt (>200fps hin oder her) und ich damit locker bis zur nächsten Gen klarkomme. :D

Ansonsten erster UV-Versuch: ca. 87W (!!) bei ~2280MHz@815mV. Klebt damit auch weiterhin im fps-Limit. Unlimitert sind's damit ~103W bei ca. 290fps. Dagegen war auch die 4090 vorher ein richtiger Säufer in WoW, die lag mit vergleichbarem UV selten unter 130W.

Jetzt hab ich für meinen verhältnismäßig exotischen Anwendungsfall jedenfalls das, was ich wollte. Konstant hohe fps und dazu noch absurd niedriger Verbrauch. Laufruhige Lüfter, die ich bei den Verbrauchswerten problemlos mit 500rpm laufen lassen kann (unterschwelliger Hinweis an alle anderen Hersteller, den Scheiß mit albern hohen min-rpm endlich mal auf die Reihe zu kriegen) und für den Fall der Fälle krieg ich die Karte mit UV+OC auch auf 5080-Niveau gehoben, falls dann doch mal irgendwelche AAA-Titel anstehen. Das langt dann auch mit ggf. einzeln angepassten Settings für >60fps als Ausgangslage gepaart mit (M)FG.

Ohne die anderen Karten selbstverständlich selbst auswendig zu kennen würde ich aber behaupten, alles andere als eine Asus Prime (und das gilt ja fast schon für alle SKUs) ist einfach nur rausgeworfenes Geld, weil man es besser im Gesamtpaket nicht abliefern kann und die Prime ja auch ein UVP-Modell ist. Ich hab in der Vergangenheit ja immer wieder über Asus geschimpft, weil sie wirklich viel verzapfen. Aber für die Prime wirklich Chapeau, da findet man nicht mal mit viel Mühe geben irgendein Haar in der Suppe.

Lurtz
2025-06-18, 09:51:07
Die Prime kam heute (bzw. gestern) schon an, knapp 24 Stunden nach der Bestellung. Das hat schon fast Prime-Ausmaße, wirklich top von Computeruniverse.

Gibt einige Hardware-Händler, die mindestens so schnell wie Prime sind. Ganz ohne Aboscheiß und eigenen Lieferdienst.

Linmoum
2025-06-18, 12:06:51
Ich wohne in Berlin und kann 90% der Sachen abends um 22 Uhr bestellen mit Lieferung am nächsten Tag, oftmals sogar bis 13 Uhr. So schnell ist definitiv kein normaler Händler. ;)

Ex3cut3r
2025-06-18, 13:32:41
Na dann. Glückwunsch @ Linmoum alles richtig gemacht. Auch danke für deinen Erfahrungsbericht.

aufkrawall
2025-06-18, 13:53:59
Ohne die anderen Karten selbstverständlich selbst auswendig zu kennen würde ich aber behaupten, alles andere als eine Asus Prime (und das gilt ja fast schon für alle SKUs) ist einfach nur rausgeworfenes Geld, weil man es besser im Gesamtpaket nicht abliefern kann und die Prime ja auch ein UVP-Modell ist. Ich hab in der Vergangenheit ja immer wieder über Asus geschimpft, weil sie wirklich viel verzapfen. Aber für die Prime wirklich Chapeau, da findet man nicht mal mit viel Mühe geben irgendein Haar in der Suppe.
Das kann ich nur unterschreiben. Die Primes sind einfach seltsam gut. Nicht nur für den Preis, sondern auch generell.
Ich frag mich, wann Asus da den Stecker zieht, damit wieder mehr TUFs gekauft werden. :freak:
Wobei bei der 3060 TUF das Gehäuse noch komplett aus Metall war, bei neueren ist das teilweise Plastik.

Laz-Y
2025-06-18, 19:05:18
Die TUF ist 100€ teuerer als die Prime - das gibt einem zu denken.

Mir ist das Wichtigste an so einer Karte die Lautstärke. Wie sind diese zwei Karten im Vergleich? Ist die Prime ähnlich leise wie die TUF?

Linmoum
2025-06-19, 08:47:09
Wenn man die Karten undervoltet und dann irgendwo bei <230W selbst unter Volllast landet, wird sich das vermutlich kaum was nehmen. Aber standardmäßig bei (fast) 300W wird die TUF natürlich mehr Spielraum haben, wenn man auch noch die Temperaturen berücksichtigt (sind halt alleine schon 2.5 Slots vs. 3.125 bei der TUF lt. Geizhals). Die Physik kann auch Asus mit 2.5 Slots natürlich nicht aushebeln. Aber in der Verbrauchsklasse ist alles andere den Aufpreis IMO einfach nicht wert. Gerade auch, weil die Prime ja immer wieder im Angebot ist.

Linmoum
2025-06-23, 17:31:47
Hat hier eigentlich jemand schonmal (gilt im Endeffekt für alle Blackwell-GPUs) eines der 80Gbps-Kabel ausprobiert? Scheint wahrscheinlich kein funktionierendes mit >2m zu geben? Hatte jetzt probehalber das 3m von Silkland hier, was auch bei der Länge mit 80Gbps beworben wird (zertifiziert sind deren Kabel aber offiziell nur bis 2m), aber das funktioniert leider überhaupt nicht. Dachte erst, liegt am UV/OC, dass es permanent Freezes gab, bis ich dann mal auf die Idee kam, es könnte ja das Kabel sein. Und zack, Monitor von DP2.1 zurück auf 1.4 gestellt und alles an Problemen verschwunden.

Ansonsten warte ich halt, bis es vielleicht irgendwann mal auch offiziell funktionierende Kabel mit 3m Länge gibt. Wenigstens funktioniert DLDSR bei Blackwell ja jetzt auch mit DSC.

BlacKi
2025-08-13, 12:08:49
Macht 'nen sehr soliden und wertigen Eindruck trotz des Umstandes, dass es eigentlich "nur" ein UVP-Modell ist. Kein ausgeprägtes Spulenfiepen bei dem Exemplar und dass die Lüfter schon mit 500rpm anlaufen, ist einfach nur ein Traum.
meine karte ist gestern angekommen. solide gebaut, ganz anders als der palit plastikbomber, und normale größe wie früher.

direkt in den quiet mode geswitched, lüfter laufen dann mit uv bei 1100rpm, aber sowas von leise selbst bei dieser drehzahl.

manuell kann man auf 30% runter regeln mit AB, dann liegen 500rpm an. die reichen aber nicht bei 230w. stellt man auf 40% liegen 900rpm an. praktisch unhörbar selbst im offenen aufbau.

richtig tolle karte im niedrigsegment. jeden euro der 780€ wert.

Angiesan
2025-08-14, 17:33:15
Ich möchte dem ein oder anderen hier mal ein paar Tests liefern bezüglich 5070 Ti zur 5080 vielleicht auch als Kaufentscheidungshilfe.
Um genau zu sein habe ich eine ASUS 5070Ti TUF OC und eine wirklich gut gehende 5080FE.

Ootb macht die ASUS 2805 MHz und die 5080FE 2812 MHz. Das sind jeweils die Taktraten die die Karten im aufgewärmten Zustand in Spielen halten, beim Starten und in Spielen mit leichter Last geht die FE über oder an die 2900 MHz und die ASUS bis zu 2850 MHz.
Bei der 5070Ti meldet die Telemetrie dann i.d.R. 215-275 Watt und die Lüfter drehen je nach Spiel mit 1000-1250 RPM. Das ist silent und aus dem PC faktisch nicht heraus hörbar, dabei leidet die Karte unter einem leisen aber hörbaren Spulenfiepen.

Die 5080FE nimmt sich ootb zwischen 250 und 330 Watt, die Lüfter drehen dann fast immer zwischen 1350 - 1500 RPM was aber keinen großen Unterschied in der Lautstärke aus macht. Die Karte ist damit immer gut hörbar, trotzdem ist das nicht wirklich unangenehm, da die Lüfter genau wie auf der ASUS vollkommen ohne Nebengeräusche arbeiten, das Rauschen ist aber halt da, mich stört das nicht wirklich. Spulenfiepen hat die FE überhaupt nicht.

Beide Karten sind hervorragend verarbeitet und trotz des heftigen Unterschiedes in der Größe wiegen beide um die 1,6 KG. Die FE ist irgendwie das IPhone unter den Grafikkarten, die Karte ist m.M. nach das absolut Machbare in Haptik und Verarbeitungsqualität was aktuell bei Grafikkarten machbar ist. Die ASUS ist dagegen "nur" eine hervorragend verarbeitete Grafikkarte.

Mich hat interessiert, wie schlägt sich eine 5070TI mit OC gegen einen undervoltete 5080.

Der Grund die ASUS 5070TI bleibt auch unter OC unfassbar leise und sparsam, die 5080FE ist da schon eine andere Hausnummer, mit OC von 450 MHz und PL auf 108% genehmigt sich die Karte eigentlich nie viel weniger wie 300Watt und nicht selten sieht man auch 350+Watt das resultiert dann in 1650-1700 RPM und ja das nervt dann schon und ist sehr deutlich hörbar, wenn auch immer noch keinen Untergeräusche dazugekommen sind. Der Speicher der FE kann ich nicht mit maximalem OC fahren die 17000 macht die FE nicht immer und überall stabil mit, das läuft mal 3 Tage gut und dann mal wieder nicht, die 16000 sind aber stabil machbar, was im AB einen Übertaktung um 1000MHz darstellt. Die Karte taktet dann in Spielen selbst in the Division mit über 3200 MHz.

Umgekehrt mit UV und OC auf 0,925 Volt gepinnt erreiche ich stabile 2850 MHz in Spielen was etwas weniger an Takt darstellt was die 5070TI mit UV erreichen kann, diese liegt deutlich über 2900 MHz. Die Leistungsaufnahme der 5080 mit UV ist absolut vergleichbar mit der 5070TI mit OC und die Lüfter bleiben um die 1300 RPM was sehr angenehm ist aber noch nicht als wirklich silent durchgeht. Die Temperatur geht aber von 70-72 C auf 60 C zurück was schon recht heftig ist.

Die ASUS 5070Ti kann ich trotz OC Model genau so hoch einstellen wenn ich ihr freien Lauf lasse (+450 MHz), die Karte taktet aber meist nur mit 3150 MHz bis knapp 3200 MHz bleibt dabei aber i.d.R. unter 300 Watt trotz PL auf 110%. Die Lüfter drehen dann mit maximal 1300 RPM was immer noch sehr, sehr leise ist.
Erstaunlicherweise, kann die TUF mit dem Prime Bios deutlich mehr liefern was mit meinem Modell dann sogar für die Hall of Fame gereicht hatte ;-) Gut das Prime Bios liefert 350 anstelle von 330 Watt aber auch das OC geht damit einfach 100 MHz höher, verstehe das wer wolle, am dann fehlenden 2 HDMI Anschluss und der nicht mehr einstellbaren RGB Beleuchtung wird es nicht liegen. Der Test hier wurde aber auf dem TUF Silentbios durchgeführt.

Was kann also eine 5080 UV mit runden 2850 MHz und den Speicher auf 16000 gegen einen 5070TI mit Übertaktung um 450 MHz auf der GPU und ebenfalls 16000 auf dem Speicher leisten.

Getestet habe ich willkürlich ein paar Spiele die die ich aktuell installiert habe und wo es nicht um 300 oder 350 FPS geht weil das merke ich dann nicht mehr beim Spielen. Das ganze immer in 3K Auflösung auf meinem Gigabyte OLED mit 240 HZ.

1.) DL2 mit RT (alles an), DLSS Q, Presset K forciert über die NV App, Testszene in old Villedor
5080UV = 152 FPS
5070Ti OC = 125 FPS
Differenz 21,6 %

2.) DL interner Benchmark, gleiche Einstellungen Durchschnitt aus 3 Läufen.
5080UV = 139 FPS avg / min 117 FPS
5070Ti OC = 120 FPS avg / min 108 FPS
Diff. avg FPS 15,8 % Diff. min FPS 8,3 %

3.) The Sinking City Remastered alles an RT an DLSS Q kein FG
5080UV = 81 FPS
5070Ti OC = 66 FPS
Differenz 22,7 %

-zweite Testszene
5080UV = 68 FPS
5070Ti OC = 62 FPS
Differenz 8 %

4.) Titan Quest 2 Einstellung Epic, DLAA kein FG
5080UV = 65 FPS
5070Ti OC = 62 FPS
Differenz 4,8 %

-zweite Testszene
5080UV = 60 FPS
5070Ti OC = 56 FPS
Differenz 7,1%

5.) Doom tdA ohne RT bzw. PT DLSS Q sonst alles max out
5080UV = 152 FPS
5070Ti OC = 144 FPS
Differenz 5,5 %

6.) Robocop RC unfinshed Business DLAA Lumen an, Rest wenn möglich epic
RTX 5080UV = 111 FPS
RTX 5070Ti OC = 110 FPS
Differenz 1%

6.) Indy, alles auf max., PT mittel, DLSS Q kein FG
5080UV = 72 FPS
5070Ti OC = 66 FPS
Differenz 9 %

CP 2077 PT on DLSS Q FG 3X interner Benchmark / Durchschnitt aus jeweils 3 Läufen)
5080UV = 150,9 FPS
5070TI OC = 137,21 FPS
Differenz 9,9%

Was fällt auf, dass was in der Fachpresse schon mehrfach angedeutet wurde stimmt, die 5070Ti mit OC kann es mit einer 5080 ohne OC aufnehmen. Die meisten 5080er dürften die hier erreichten und fast überal gehaltenen 2850 ohne OC oder UV nicht erreichen sondern werden irgendwo bei 27XX MHz rumhängen.

Kommt kein RT/PT oder nur im geringerem Maße zum Einsatz, ist die Differenz sehr klein bzw. fällt in den Bereich der Messungenauigkeiten. Kommt hingegen RT oder PT und DLSS mit FG oder MFG hinzu, ist die 5080 für eine 5070Ti nicht einholbar, selbst Tests mit dem Primebios bringen im besten Fall noch mal großzügig gerundet 3 % auf der 5070Ti. Bei den 1% kann und konnte ich nie die vermeintliche Schwäche der 5070Ti sehen oder fühlen. Am Ende kann man festhalten, dass die avg FPS stärker mit einer 5080 zulegen wie die 1% FPS auch unter RT und PT konnte ich da nicht wirklich einen Nachteil feststellen, dass kann natürlich bei anderen Spielen wieder anderes sein.

Zur Verdeutlichung, mit OC auf dem TUF Silent-Bios erreicht die Karte beim 3D Mark Steel Nomade 7493 Punkte und die Karte taktet im Durchschnitt mit 3150 MHz. Mit dem Primebios sind es 7656 Punkte und einem durchschnittlichen Takt in Höhe von 3268 MHz bei gleichen OC Einstellungen. Natürlich kann man zum Benchen da noch mal was draufpacken, aber das läuft dann halt im Alltag nicht stabil und ist somit für diesen Test irrelevant. Für alles verwendet wurde der neuste Studio-Treiber 580.97.

Nachdem ich jetzt von Anfang an die ASUS 5070Ti TUF OC habe, dann auf die ASUS 5090 TUF gewechselt bin nur um die nach knappen 5 Wochen wieder zu verkaufen, und jetzt seit über 4 Wochen die 5080FE habe und auch fast täglich benutze, kann ich sagen, dass diese das rundeste Paket im aktuellen Line-up von NV ist. Leider ist sie im Verhältnis aber eigentlich zu teuer, gerade gegen die 5070Ti. Auf der anderen Seite ist die hier verwendete ASUS 5070Ti TUF OC auch keine billige Grafikkarte und ebenfalls zu teuer. Trotzdem die 5080FE ist meiner Meinung nach besser als ihr Ruf, sie ist immer wahrnehmbar auch mit UV und laut mit OC und erhöhtem PT. Aber wenn es nicht absolut silent sein muss bekommt man die leise und ootb ist die auch nicht wirklich eine Krawallbude, hinzu kommen die Vorteile der angewinkelten Strombuchse (warum das nicht mehr Hersteller so handhaben verstehe ich nicht) das m.M.nach wirklich schöne Design, die überragende Verarbeitung, und die wirklich für High End kompakte Bauweise. Der einzige Vorteil der ASUS 5070Ti Tuf OC war, ist und bleibt die Lautstärke unter allen Bedingungen. Egal ob OC, UV odr ootb das Ding ist im Silentbios immer flüster leise. Hinzu kommt wenn man die Leistung nicht benötigt, ein absurd niedriger Verbrauch oft nur leicht über 200 Watt und nie über 250Watt mit UV und einer vergleichbaren Performance wie ootb. Dazu dann Lüfter die die 1000 RPM nie mehr sehen und selbst anspruchsvollste Silentfanatiker bei 600-800 RPM befriedigen dürften,.... wäre da nicht das leichte Spulenfiepen ;-)

Sardaukar.nsn
2025-08-14, 23:15:21
Nachdem ich jetzt von Anfang an die ASUS 5070Ti TUF OC habe, dann auf die ASUS 5090 TUF gewechselt bin nur um die nach knappen 5 Wochen wieder zu verkaufen, und jetzt seit über 4 Wochen die 5080FE habe und auch fast täglich benutze, kann ich sagen, dass diese das rundeste Paket im aktuellen Line-up von NV ist.

Auch wenn die Meinung hier im Forum kontrovers ist, ich gehe da absolut mit. Es muss auch ein exobitant teures Modell der 5080 sein, meine MSRP ASUS Prime gekauft an Day-1 liefert selbst mit dem Luftkühler genau so ab wie die teuren TUF, Astral oder Suprim.
Inzwischen ist ein Wasserblock drauf und ich habe auch gänzlich meine Ruhe.

Alle Blackwell Karten lassen sich locker über 3GHz takten. Oben raus geht die 5080 deutlich besser ab. Hier mal ein Vergleich mit 3,2Ghz https://www.3dmark.com/compare/sn/6820673/sn/6964347

Angiesan
2025-08-15, 00:21:32
Auch wenn die Meinung hier im Forum kontrovers ist, ich gehe da absolut mit. Es muss auch ein exobitant teures Modell der 5080 sein, meine MSRP ASUS Prime gekauft an Day-1 liefert selbst mit dem Luftkühler genau so ab wie die teuren TUF, Astral oder Suprim.
Inzwischen ist ein Wasserblock drauf und ich habe auch gänzlich meine Ruhe.

Alle Blackwell Karten lassen sich locker über 3GHz takten. Oben raus geht die 5080 deutlich besser ab. Hier mal ein Vergleich mit 3,2Ghz https://www.3dmark.com/compare/sn/6820673/sn/6964347

Ja mit meiner 5080 schaffe ich die 10k nicht unter DX12 da reichen die 390 Watt der FE mit meinem Chip nicht aus. Knapp 9700 gehen aber, in Steel Nomad hält die Karte dann den Takt von 3,3xx GHz nicht und fällt auf runde 3200MHz zurück.

Ich denke das meine FE, wenn sie 450 Watt nehmen dürfte locker die 10K reisen würde. aber das ist auch nur interessant für "wer hat den Längsten" :-), wie ich schon schrieb, spielen will ich so nicht mit der Karte und würde auch nicht immer stabil laufen.

Mit dem UV Profil bin ich eigentlich recht happy. auch wen ich irgendwo zwischen 5% und 8% liegen lasse.

dmsephiroth
2025-08-25, 02:00:22
Ahoi!

Ich habe mir nun endlich einen neuen Rechner gegönnt und versuche mich noch für eine GPU zu entscheiden: Rechner= Ryzen 7800x3d, 32 gb DDR 5-6000 CL 30 Ram usw.

Ich denke eine 5070 hätte zu wenig Vram, also würde bei angedachter WQHD Auflösung wohl eher die 5070ti oder 9070xt Sinn machen.

Zu welcher Custom Karte würdet ihr bzgl. der 5070ti raten?
Hatte bisher die Asus Prime Oc angepeilt :)

basix
2025-08-25, 09:06:06
Ebenfalls Ahoi!

Mit der Prime machst du nichts falsch ;)

dmsephiroth
2025-08-25, 14:23:09
Ebenfalls Ahoi!

Mit der Prime machst du nichts falsch ;)

Danke Dir :)

dmsephiroth
2025-08-28, 11:46:47
Kann jemand noch andere Custom Modelle guten Herzens empfehlen?

Wie sieht es z.B. mit Zotac Karten aus?

MSI Karten sind leider sehr viel teurer. Zumindest die guten wie die Vanguard +Gaming Trio.

Sardaukar.nsn
2025-08-28, 13:12:36
Die KFA2 Modelle über Amazon: https://www.computerbase.de/news/grafikkarten/geforce-rtx-kfa2-verkauft-rtx-50-grafikkarten-jetzt-ueber-amazon.94089/

dmsephiroth
2025-08-28, 13:25:57
Die KFA2 Modelle über Amazon: https://www.computerbase.de/news/grafikkarten/geforce-rtx-kfa2-verkauft-rtx-50-grafikkarten-jetzt-ueber-amazon.94089/

Besitzt Du so ein Modell?

Das ist ja quasi Galax wie? Nur anderer Name und die soll laut sein:
https://www.techpowerup.com/review/galax-geforce-rtx-5070-ti-1-click-oc-white/40.html

MAX|HASS
2025-08-28, 21:00:42
Die Prime kam heute (bzw. gestern) schon an, [...]

Falls du hier noch liest: besitze die selbe Karte und wollte mal fragen, ob du deine Kurve mal posten kannst? An diese Werte komme ich irgendwie nicht dran. Also nicht freidrehend, nur wenn sie im (immer noch selbstgesteckten) 60fps-Limit hängt.

Vielleicht hatte ich auch kein gutes yt-Video, wo das ma besser erklärt war.

BlacKi
2025-08-28, 23:13:51
ist easy:

afterburner starten

Strg +F

unten nach 0,815v suchen

shift halten und den 0,815v punkt auf die gewünschte frequenz stellen

danach immernoch, oder wieder, shift halten und ganz knapp links von dem punkt mit linker maustaste gedrückt alle punkte rechts blau markieren

danach 2x enter drücken um die hinteren punkte runterzukürzen damit die karte nicht höher boosten kann.

apply drücken

saven

Sardaukar.nsn
2025-08-29, 05:40:58
Besitzt Du so ein Modell?

Das ist ja quasi Galax wie? Nur anderer Name und die soll laut sein:
https://www.techpowerup.com/review/galax-geforce-rtx-5070-ti-1-click-oc-white/40.html

Laut dem Review:


Quiet
Fantastic overclocking potential
Overclocked out of the box
Highly energy-efficient
Idle fan-stop


Klingt gut, aber die Asus Prime kann ich halt auch sehr empfehlen.

dmsephiroth
2025-08-29, 06:21:01
Laut dem Review:



Klingt gut, aber die Asus Prime kann ich halt auch sehr empfehlen.

https://www.techpowerup.com/review/zotac-geforce-rtx-5070-ti-amp-extreme/45.html

Ich finde dieses Modell auch sehr interessant.

Kostet etwas mehr als die Prime, aber hat eine VC und ist sehr hochwertig. Ist allerdings etwas lauter als die Prime, aber mit 30 dBA sollte es dennoch noch ok sein.
Darüber hinaus 5 Jahre Garantie.

MAX|HASS
2025-08-29, 20:44:36
ist easy:

afterburner starten

Strg +F

unten nach 0,815v suchen

shift halten und den 0,815v punkt auf die gewünschte frequenz stellen

danach immernoch, oder wieder, shift halten und ganz knapp links von dem punkt mit linker maustaste gedrückt alle punkte rechts blau markieren

danach 2x enter drücken um die hinteren punkte runterzukürzen damit die karte nicht höher boosten kann.

apply drücken

saven

Äh, danke, aber das hat wohl irgendwie nicht hingehauen. Gibt es ein leicht verständliches Video dazu?

**edit: Versuche es hiernach nochmal https://www.youtube.com/watch?v=MfvgqHnQOXQ&t=10s . Bin mir aber ziemlich sicher, damit auch schon rumhantiert zu haben und das Resultat waren Werte, die so gar nicht zu deinen passen. Mir hat es damals™ gereicht, weil etwas leiser, weniger warm, bisschen weniger Stromverbrauch.

**edit²: Fehler gefunden. Ich wollte ja nicht wie du bis an die unterste Kante runter, sondern einfach nicht allzuweit weg von der regulären Maximal-Spannung. So blieb ich seinerzeit bei (ich glaube) 2600mhz bei 0,850v und fand das Ergebnis für den ersten Versuch akzeptabel. Ist dann aber auch kein Wunder, daß die Karte anschließend zB. beim Indi ihre 140w in dem Dreh nimmt. Vielleicht beschäftige ich mich damit nochmal etwas mehr, danke erstmal.

Dorn
2025-08-30, 08:55:38
Hier ist noch eine Youtube Anleitung Speziel für die 5070 Ti.
https://www.youtube.com/watch?v=f_GSr-BwaBU

Anbei noch meine Kurve. 895 mV bei 2775 Mhz (Warm). Geht auch mehr aber mehr hab ich nicht getestet...

Lurtz
2025-08-30, 15:24:49
Mein Standardprofil sind 2780 MHz @850 mV.

MAX|HASS
2025-08-30, 16:52:24
@Dorn, gucke ich mir nochmal an. Im Grunde sieht meine Kurve aber ähnlich aus wie deine, einen Punkt fix und dann geht es nach rechts durch. Und da ich damals nicht großartig testen wollte, bin ich bei meinem ersten konservativen Versuch mit 2600mhz bei 850mv hängengeblieben. Aber da "säuft" sie dann halt auch bei Indi/CP2077 ihre 135 Watt.

Richtig runterkriegen kann man sie aber trotzdem, nur der Knackepunkt sind dann halt die 60fps bei diesen Einstellungen, damit bleibt sie auch zwischen 80 und 90 Watt. Ergo: ne Stunde Zeit nehmen und mal richtig austarieren. Bock darauf? Nur bedingt :wink:.

Haarmann
2025-09-14, 07:53:23
@Dorn, gucke ich mir nochmal an. Im Grunde sieht meine Kurve aber ähnlich aus wie deine, einen Punkt fix und dann geht es nach rechts durch. Und da ich damals nicht großartig testen wollte, bin ich bei meinem ersten konservativen Versuch mit 2600mhz bei 850mv hängengeblieben. Aber da "säuft" sie dann halt auch bei Indi/CP2077 ihre 135 Watt.

Richtig runterkriegen kann man sie aber trotzdem, nur der Knackepunkt sind dann halt die 60fps bei diesen Einstellungen, damit bleibt sie auch zwischen 80 und 90 Watt. Ergo: ne Stunde Zeit nehmen und mal richtig austarieren. Bock darauf? Nur bedingt :wink:.

Das ist genau etwa der Punkt ... meine 3080 frisst bei 180 fps LoL ... 55W. Juckt mich jetzt nicht gross und die "Optimierung" wird da nicht gross helfen.

Und die 5070 ti im Odyssey X (der ist im Testmodus und wird somit bespasst) nicht weniger witzigerweise.

Analog für Fortnite ... solange ich bei 144 fps und meinen Settings bleibe ist die Luft gegen unten zu dünn für riesigen Zeitaufwand.

MAX|HASS
2025-09-14, 08:25:16
Tippfehler? Warum sollten 55w auch jucken?

Haarmann
2025-09-14, 09:35:39
Am Rande erwähne ich es mal ... ich habe hier ne Palit GamingPro S - Finger weg imo, weil die hat definitiv bei mir Probleme im Betrieb mit PCIe 5 - deswegen muss ich das jeweils von Hand runterstellen. Erst dachte ich, das könnte am Riser liegen (B650I ITX im NR200p) - jetzt baute ich das Ding testweise in ein GA ATX Board um - gleiche Probleme - völlig unmotivierte Neustarts egal wann quasi.

Zum Verbrauch - WUXGA meine Settings aber nur 120 FPS - auch 125W, aber massiv höhere Taktrate von fast 2.5 GHz (was ne 3080 eh nie hinbekäme). Die 3080 macht eben die 144 FPS. GDDR7 zieht wohl einfach Strom.

Tippfehler? Warum sollten 55w auch jucken?

Ohne jede Optimierung bin ich bei League of Legends dank V-Sync/G-Sync bei den 55W bei ner 320W TDP Karte. Da fehlt mir eben die Lust fürs Optimieren, weil kaum was zu holen ist.

Bei Fortnite irgendwo immer zwischen 80W bis 125W - zuwenig zu holen.

Witzigerweise ist die 5070 ti, mein Vergleichsgerät, nicht besser ...

Solange man also die Karten nicht "vollbelastet", bringts wenig.

Aus Spass hab ichs natürlich für Wohnzimmer PCs immer getestet, was gegen Unten geht ohne viel zu verlieren.

Bei einer 5070 ti hatte ich mal die Option mehr Leistung geben zu dürfen - das wurde fast 1zu1 in Mehrleistung umgesetzt.

Daher habe ich angefangen nicht die MHz, sondern die FPS einzudämmen/derAnwendunganzupassen. Selbstredend immer mit einer optimierten Spannungskurve.

Aber ich verstehe Jeden, der zu faul ist, das bis ans obere Limit zu machen... der Aufwand gerade bei ca 3 GHz (jetzt bei den neuen Karten) ist gross.

P.S. Auch meine CPU frisst dann weniger Heu, die Lüfter verstummen und wenn ich den Wattmeter anschliesse ... lohnt definitiv.

Semmel
2025-11-09, 11:00:00
Im Grunde sieht meine Kurve aber ähnlich aus wie deine, einen Punkt fix und dann geht es nach rechts durch.

Warum limitiert ihr die GPU ab einem gewissen (willkürlichen) Punkt ab?
Macht es nicht mehr Sinn, die Curve weitergehen zu lassen und stattdessen das Powerlimit ggf. zu reduzieren, wenn man weniger Verbrauch haben will?
Sonst wird die GPU in gewissen Szenarien nur unnötig ausgebremst. So zumindest mein Verständis.


Ich habe jetzt selber seit kurzem eine ASUS TUF 5070 Ti 16GB in einem Deal erstanden.
Mit NVidia habe ich allerdings keine aktuellen Erfahrungen. Meine letzte NV war eine 7900 GTX vor 20 Jahren. ;)

Von der 6900 XT bin ich aufgrund von AMDs Dreistigkeit bei der Treiberpolitik (künstliche Obsoleszenz für RDNA2) gewechselt.
Ich hatte auch die 5090 im Auge, aber ich zahle keine Preise mehr über UVP und die 5090 ist nur zu Wucherpreisen erhältlich. Dann eben nicht. Die 5070 Ti war dagegen mit hohen Rabatten zu haben, also ist es erstmal die geworden, auch wenn ich dann schneller schon wieder aufrüsten muss.

Für den Anfang wollte ich erstmal das übliche UV/OC austesten.
Mit dem Asus GPU Tweak III geht das angenehm komfortabel.
Wenn ich den GPU-Boost-Takt erhöhe, dann verschiebt sich dabei die ganze Spannungskurve, richtig?
Muss ja sein, sonst würde das nicht viel bringen, wenn man eh immer im Powerlimit hängt.
So gesehen reicht es ja, den Boost-Takt zu optimieren.


Erfreulicherweise lässt sich die 5070 Ti hervorragend übertakten! :)
NV Standard: 2450 MHz GPU, 1750 MHz (28 Gbps) RAM
Asus TUF Standard: 2588 MHz GPU, 1750 MHz (28 Gbps) RAM
Asus TUF OC: 2610 MHz GPU, 1750 MHz (28 Gbps) RAM

Ich habe erstmal mit dem 3DMark Steel Nomad ausgelotet, was ging.
Ergebnis: 2995 MHz GPU, 2125 MHz (34 Gbps) RAM

Das ist nicht schlecht, oder?
Reale Boost-Taktraten gehen so bis knapp 3,3 GHz.
Powertarget blieb bei 300 W.


3DMark Steel Nomad Ergebnisse: (mit meinem 5800X3D)
Standard-Profil: 6884 Punkte
OC@2975/2125/PT300: 7430 Punkte (+7,9 %) -> vorläufiges Alltagssetting
OC@2995/2125/PT300: 7471 Punkte (+8,5 %)
OC@2995/2125/PT350: 7627 Punkte (+10,8 %)

Die Benchmarkumgebung war nicht optimiert, d.h. warmgelaufenes System, zugemülltes Win 11, viele Hintergrundprogramme.

350 Watt bringen kaum mehr und wird mir auch zu laut. Daher lasse ich es für den Alltag bei den 300 W.

Für den Alltag ist es mir auch wichtig, dass das System rockstable ist. Dafür werde ich noch weitere Tests machen müssen. Als nächstes werde ich mir Cyberpunk vornehmen und es nochmal neu mit Raytracing durchspielen. :)

Für die GPU werde ich als Alltagssetting mal 2975/2125/PT300 anvisieren. Ich hoffe das bleibt stabil.
Beim RAM bin ich überrascht, dass der bis ans Limit von 2125 MHz geht. Habe gelesen, dass das nur mit Hynix geht? Meine hat allerdings Samsung-Chips.

MAX|HASS
2025-11-09, 13:03:27
Warum limitiert ihr die GPU ab einem gewissen (willkürlichen) Punkt ab?

Ich habe wahrscheinlich nicht alles verstanden, was du geschrieben hast, aber auf das was ich verstanden habe, antworte ich mal so: wir verfolgen wahrscheinlich einen unterschiedlichen Ansatz.

Ich bin seit jeher 60fps-Spieler, änderte sich auch nie, als erste Highrefresh-Monitore auf dem Schreibtisch standen. Weniger Abwärme, leiserer Betrieb und weniger Stromverbrauch. Mir geht es also darum, die Karte so weit wie möglich runterzuwürgen, sodaß sie aber immer noch ihre 60 Bilder/s schafft.

Ich habe für's UV nur zehn Minuten Zeit genommen, einmal 2600@850mv und 2200@825mv und seitdem spiele ich mit letzterer Einstellung. Das geht aber auch nur im Moment, weil es eine komfortable Situation ist, in der die 70ti noch alle Spiele in diesem niedrig gehaltenen Szenario @1440p schafft. Und selbst das stimmt nicht mal, da man ja dlss hinzuschaltet.

Aber: ich hänge gleich mal ein Bild an, man kann so mit unter 250w modernste Spiele mit Pathtracing spielen (am Beispiel hier Indi). Randnotiz: Speziell in dieser Szene ginge trotz scheinbar moderater CPU-Auslastung beim i7 nicht mehr, der Vatikan killt ihn einfach. Der kommt erst wieder 20fps höher, wenn man "nur" mit Raytracing ohne Pathtracing spielt. Aber das muß er ja auch nicht, 60fps-Grenze gerade noch mit Bravour genommen.

Würde ich jedoch ohne Pathtracing spielen, um dem Prozessor mehr Luft zu lassen, würde auch bei der Grafikkarte statt 127w wie im Bild nur noch 80-85 stehen an der Stelle. Deswegen untervolte ich einfach nur. Wie oben gesagt bin ich da absoluter Laie, man könnte die Kurve wahrscheinlich noch viel feiner abstimmen, noch weiter runterbringen oder im Gegenzug sogar übertakten bei gleich nierigem mv-Wert. War mir aber zu viel Arbeit, derzeit ist es halt easy, weil die Karte genug Reserven hat.

**edit: Der Rechner war für den Zweck des Bildes unlocked, nicht auf 60fps begrenzt. Sollte nur zeigen, auch ohne die Grenze geht zumindest für die CPU (siehe Hinweis siehe weiter vorne) eh nicht viel mehr und die Karte kotzt bei der Spannung ja auch schon an der 100%-Grenze.

**edit²: Ich habe gerade mal versucht, die Szene nachzustellen und mit normalem Raytracing ohne PT sind es ca. 85fps (die 90 auf dem zweiten Bild waren ein Glückstreffer, das schwankt immer ein bisschen). Aber nur noch 200w in Summe und ich hatte bisher noch keine Zeit gefunden, daß Spiel mal zu spielen, aber wenn ich damit jetzt über den Winter anfangen sollte, wird es wahrscheinlich ohne PT, einfach weil es ohne schon verdammt gut aussieht. Der Mehrwert ist da, mir aber nicht genug wert. Mir gefallen sogar Spiele wie die beiden The Last of us-Teile ausgesprochen gut völlig ohne Raytracing.

Weiß jemand, wieso die Karte ingame sich dann eh anders verhät wie vorgegeben? Eingangs schrieb ich ja, daß ich mit der 2200er-Kurve spiele, in Spielen selbst hängt die Karte dann aber immer bei 2000 fest, siehe die beiden Bilder.

Ex3cut3r
2025-11-09, 14:55:43
Ok. Wenn du nur 60HZ Bildschirme hast verständlich. Aber es gibt mittlerweile IPS 27" 1440p mit 320 HZ für unter 300€ - Das ist dir schon bewusst, oder?

MAX|HASS
2025-11-09, 15:16:35
Ich sprach/schrieb von fps, nicht von hz. Ich habe ne 300hz-Möhre und dennoch spiele ich mit 60fps.

The_Invisible
2025-11-09, 15:33:43
Heftig, ich war auch lange ein 60fps/Hz Verfechter (4k gabs am Anfang quasi nur mit 60Hz) aber heute ruckelt mir selbst der Desktop damit :D

Ex3cut3r
2025-11-09, 15:59:49
Ich sprach/schrieb von fps, nicht von hz. Ich habe ne 300hz-Möhre und dennoch spiele ich mit 60fps.

Wozu brauchst du dann eine 5070 Ti? Da hätte es auch eine 5060Ti mit 16GB gemacht. :confused:

Sachen gibts, die gibt es gar nicht mehr im Jahre 2025. 3DCenter halt.

MAX|HASS
2025-11-09, 16:09:13
Mensch, ihr quatscht aber auch teilweise ein Blech zusammen, wenn der Tag nur lang genug ist. Ihr wißt doch gar nicht, wann ich eine Karte brauchte, ob es da beide Typen schon gab, ob der Karte in naher Zukunft jetzt endlich mal ein etwas modernerer Prozessor an die Seite gestellt werden soll und und. Auf Sicht werde ich mit der größeren Karte wohl schon etwas länger hinkommen.

Hakim
2025-11-09, 16:50:51
Leute laßt doch jeden machen wie er will. Ich spiele einige Spiele wie PoE2, D4 und TitanQuest II etc, auch nur auf 75-85 Fps gecappt, das würde ich auch tun wenn ich eine 5090 hätte. Da ich bei einigen Spielen kein Vorteil von 100 Fps+ sehe, halt nur evt höher drehende Lüfter und Stromverbrauch. Aber ich versuche niemanden davon zu überzeugen, da die meisten es auf volle Kanne spielen wollen.

Chrisch
2025-11-09, 20:09:51
Moin,

ist das bei den Karten "normal" das die in 2D nicht mehr komplett runter takten (180MHz) wenn man die übertaktet hat bzw den Curve Editor vom MSI AB benutzt?

Wenn ich AB benutze wird mir 592MHz als Minimum angezeigt.

Marodeur
2025-11-27, 09:03:46
Gestern meine neue MSI 5070 TI Inspire 3X OC eingebaut. Der erste Eindruck ist schon sehr positiv. Bei normaler Last um vieles leiser als meine vorherige Gainward 3080 und das noch völlig ohne Anpassung (Die 3080 war angepasst mit UV und Lüfterkurve). Unter etwas mehr Last muss ich sie erst noch testen, da kam ich nicht dazu. Allgemein findet man zu der Karte wenig Tests was schade ist. Sie hat auch ne Vapor Chamber und man kann sie von der Lautstärke her wohl nicht mit der ohne TI vergleichen die man öfter in Tests findet. Die hat auch keine VC. Aber sonst gehts meist nur um die Ventus, Vanguard oder Trio.

dmsephiroth
2025-11-27, 12:12:50
Gestern meine neue MSI 5070 TI Inspire 3X OC eingebaut. Der erste Eindruck ist schon sehr positiv. Bei normaler Last um vieles leiser als meine vorherige Gainward 3080 und das noch völlig ohne Anpassung (Die 3080 war angepasst mit UV und Lüfterkurve). Unter etwas mehr Last muss ich sie erst noch testen, da kam ich nicht dazu. Allgemein findet man zu der Karte wenig Tests was schade ist. Sie hat auch ne Vapor Chamber und man kann sie von der Lautstärke her wohl nicht mit der ohne TI vergleichen die man öfter in Tests findet. Die hat auch keine VC. Aber sonst gehts meist nur um die Ventus, Vanguard oder Trio.

Hier ein gutes Review zur Inspire (allerdings ohne FPS etc.):
https://www.youtube.com/watch?v=fkA0HRuflUI

Und nein, die Inspire hat keine Vapor-Chamber. Das ist ein Fehler auf der deutschen MSI-Seite. Das einzige 5070ti Modell von MSI das eine Vaporchamber besitzt ist die Vanguard.
https://docs.google.com/spreadsheets/d/11MCugOebhsZ4zb-b5R2HRIIWXp6VLCKEsLnYyzsm2lk/edit?gid=755628141#gid=755628141

Marodeur
2025-11-27, 16:52:19
Ah, schön. Anscheinend haben sie es jetzt auch erst korrigiert, gestern fand man die Info dort noch in der Form. Nett... o.O

Hatte mich schon gewundert weil auch die Trio keine hat.

Hakim
2025-11-27, 17:04:08
Glaub die Inspire ist für Gehäuse gedacht wo man wenig Platz hat. Ist halt sehr Kompakt gehalten. Wird ja auch entsprechend auf deren Homepage damit geworben.

Haarmann
2025-11-27, 17:30:22
Hab hier ne Weisse ASUS TuF für wenig Geld geshoppt - ganz OK - für den bezahlten Preis - also unter UVP.

Definitiv ne Ecke flotter, denn eine 5070 ti Gainward GS

Marodeur
2025-11-27, 17:40:50
Glaub die Inspire ist für Gehäuse gedacht wo man wenig Platz hat. Ist halt sehr Kompakt gehalten. Wird ja auch entsprechend auf deren Homepage damit geworben.

Mag sein aber sie macht auch in großen Gehäusen einen sehr guten Job und ist auch günstiger als die Trio.

Semmel
2025-11-27, 18:24:56
Die MSI Inspire ist zumindest kein solcher Fön wie die Ventus.
Mir gefällt auch die schlichte Metalloptik ohne Blingbling.

Hakim
2025-11-27, 18:28:25
Ich wollte jetzt die Karte net schlecht reden, die Karte ist bestimmt fein, aber halt Primär auf Kompakt getrimmt für kleine Systeme. Das sie dadurch türlich nicht gegen die Kühlung der Gaming Trio oder Vanguard ankommt sollte klar sein. Ist nicht ohne Grund teurerer als die Ventus/Shadow


Edit: Sehe gerade die Expert von MSI kostet soviel wie die Inspire bei GH, von der hört man hier gar nichts, glaub bei CB hatte die Karte gut abgeschnitten.

dmsephiroth
2025-11-28, 03:29:57
Ich wollte jetzt die Karte net schlecht reden, die Karte ist bestimmt fein, aber halt Primär auf Kompakt getrimmt für kleine Systeme. Das sie dadurch türlich nicht gegen die Kühlung der Gaming Trio oder Vanguard ankommt sollte klar sein. Ist nicht ohne Grund teurerer als die Ventus/Shadow


Edit: Sehe gerade die Expert von MSI kostet soviel wie die Inspire bei GH, von der hört man hier gar nichts, glaub bei CB hatte die Karte gut abgeschnitten.


Ich muss mich korrigieren:

Die Expert hat anscheinend AUCH eine Vapor Chamber, aber dafür besitzt sie wohl nur 2 Fans.

Hakim
2025-11-28, 11:46:52
Das ist nicht schlimm, sind halt zwei 120er Lüfter, Bauweise der FE von Nvidia angelehnt nur besser finde ich. Ließ dir mal den 5080 expert test bei CB dazu. Aber ist halt mit knapp 1,9 kg ein Brocken

Cubitus
2025-12-02, 00:56:57
Asus TUF OC aus meinem anderem Rechner,
die Kurve ist ganz gut geworden :)

Einfach nur krass wie effizient die Karte sein kann, dazu noch ne Priese MFG und DLSS Q oder Balance und fertig ist die 4K Laube.
Einsatzweck ist allerdings WQHD@240Hz, da fühlt sich die Karte ziemlich wohl damit :D


https://i.postimg.cc/L4t3d81H/Screenshot-2025-12-02-005222.png (https://postimg.cc/dD0yrv6X)

OgrEGT
2025-12-02, 06:29:59
Asus TUF OC aus meinem anderem Rechner,
die Kurve ist ganz gut geworden :)

Einfach nur krass wie effizient die Karte sein kann, dazu noch ne Priese MFG und DLSS Q oder Balance und fertig ist die 4K Laube.
Einsatzweck ist allerdings WQHD@240Hz, da fühlt sich die Karte ziemlich wohl damit :D


https://i.postimg.cc/L4t3d81H/Screenshot-2025-12-02-005222.png (https://postimg.cc/dD0yrv6X)
Komisch die Kurve... welche Spannung liegt denn nun bei dem Plateau von 3015MHz an? Gem. Kurve alles zwischen 925 und 1240mV? Wenn bei dem Punkt 3015MHz/925mV die Spannung konstant 925mV betragen sollte dann müssten die Kurve an dem Punkt senkrecht und nicht waagerecht verlaufen... sieht man sogar sehr schön an der dünnen Linie welche wohl die Original Kurve ist?

Holundermann
2025-12-02, 06:53:00
Komisch die Kurve... welche Spannung liegt denn nun bei dem Plateau von 3015MHz an? Gem. Kurve alles zwischen 925 und 1240mV? Wenn bei dem Punkt 3015MHz/925mV die Spannung konstant 925mV betragen sollte dann müssten die Kurve an dem Punkt senkrecht und nicht waagerecht verlaufen... sieht man sogar sehr schön an der dünnen Linie welche wohl die Original Kurve ist?

925v, mehr Spannung wird nicht gegeben also bleibt die Frequenz dann auch konstant. Das ist nicht komisch, genau so macht man das. Man wählt seine Spannung aus und zieht den Punkt (mit Shift) auf die Frequenz die man damit haben möchte. Wenn's ins Power limit passt und die Auslastung läuft die Karte dann so (hoffentlich stabil).

OgrEGT
2025-12-02, 07:18:11
925v, mehr Spannung wird nicht gegeben also bleibt die Frequenz dann auch konstant. Das ist nicht komisch, genau so macht man das. Man wählt seine Spannung aus und zieht den Punkt (mit Shift) auf die Frequenz die man damit haben möchte. Wenn's ins Power limit passt und die Auslastung läuft die Karte dann so (hoffentlich stabil).
Dann haben die Punkte auf der dem Plateau nach 925mV somit keine Bedeutung... wenn doch dann könnte die Karte wenn sie die Punkte der Kurve befolgt jede Spannung bis 1240mV für die konstante Frequenz von 3015MHz wählen... Der Grund warum die 925mV konstant gehalten werden ist weil die Karte offenbar in keinem Fall über die 3015Mhz kommt... wenn aber doch und die 925mV dann nicht reichen dann könnte das zu Instabilität führen da die Kurve dafür dann keinen definierten Punkt mehr hat... oder sie fällt dann zurück auf die Originalkurve...

Holundermann
2025-12-02, 07:31:43
Dann haben die Punkte auf der dem Plateau nach 925mV somit keine Bedeutung... wenn doch dann könnte die Karte wenn sie die Punkte der Kurve befolgt jede Spannung bis 1240mV für die konstante Frequenz von 3015MHz wählen... Der Grund warum die 925mV konstant gehalten werden ist weil die Karte offenbar in keinem Fall über die 3015Mhz kommt... wenn aber doch und die 925mV dann nicht reichen dann könnte das zu Instabilität führen da die Kurve dafür dann keinen definierten Punkt mehr hat...

Die Punkte haben die Bedeutung dass die Karte nicht höher takten soll. Der erste Punkt für die Frequenz zählt, wenn's instabil ist mit 5mV mehr das Prozedere wiederholen. Je höher die Frequenz desto mehr Spannung ist in der Regel nötig - um 3,2 GHz zu erreichen gehen evtl nicht mehr +450 MHz sondern man muss eine höhere Spannung wählen - evtl. Passt dann aber nicht mehr ins Power limit - höhere Spannung = mehr Verbrauch, U x I und so...

OgrEGT
2025-12-02, 07:35:34
Die Punkte haben die Bedeutung dass die Karte nicht höher takten soll. Der erste Punkt für die Frequenz zählt, wenn's instabil ist mit 5mV mehr das Prozedere wiederholen. Je höher die Frequenz desto mehr Spannung ist in der Regel nötig - um 3,2 GHz zu erreichen gehen evtl nicht mehr +450 MHz sondern man muss eine höhere Spannung wählen - evtl. Passt dann aber nicht mehr ins Power limit - höhere Spannung = mehr Verbrauch, U x I und so...
So und nun sage mir anhand der Kurve die wir da sehen welche Spannung für 3200MHz gesetzt wird...

Semmel
2025-12-02, 07:55:42
Ich verstehe auch nicht, warum man die Kurve willkürlich an irgendeinem Punkt einfach zerstört, indem man sie komplett abflacht. Das ist nicht der Sinn einer Kurve. Das sind veraltete Denkmuster aus früheren OC-Zeiten, die heute keinen Sinn mehr ergeben.

Je nach Lastfall kann das trotzdem funktionieren, aber es gibt auch Situationen, an denen die Karte durch die verkrüppelte Kurve künstlich ausgebremst wird.

Holundermann
2025-12-02, 08:41:07
Ihr könnt ja machen was ihr wollt mit eurer Kurve und was eure Karte zulässt. Es wird nix bringen die Karte bei 1.075 Volt einzustellen weil ihr die Spannung nie erreicht weil das Power Limit das nicht zulässt.

Meiner Erfahrung nach zieht eine Karte mit mehr MHz bei gleicher Spannung mehr Strom. die Karte hat sagen wir ein TDP von 300 W. Wenn ich jetzt die 3 GHz mit 0925 erreiche und ich 250W verbrate hab ich noch luft nach oben. Nur Taktet der Chip ja nicht unendlich hoch sondern ist physikalisch limitiert. Wo das physikalische limit liegt hängt vom Chip ab. Vielleicht schafft der Chip ja 3.3 GHz. bei 1.05 V - das Problem ist das er nie 1.05V bekommt weil man dann 350 W ziehen müsste.

Es geht beim Curve optimizen meistens nicht darum das maximum rauszuholen sondern den Sweet spot für den Alltagsbetrieb. Die Karte arbeitet super effizient bei 3 GHz mit 0.925 V und bleibt dabei sogar unter dem Power Limit. jetzt kann man natürlich nach oben offen lassen, auf einmal braucht die Karte 50 W mehr, ich bekom aber nur läppische 100 MHz. Deswegen regelt man ab - weils ineffizient und/oder Instabil wird.

Holundermann
2025-12-02, 08:43:33
So und nun sage mir anhand der Kurve die wir da sehen welche Spannung für 3200MHz gesetzt wird...

Die 3.2 GHz werden nicht abgedeckt von der Kurve - die Karte darf nicht über 0.925 V Spannung gehen und nicht über die 3 GHz.

BlacKi
2025-12-02, 08:48:14
Das ist nicht der Sinn einer Kurve. Das sind veraltete Denkmuster aus früheren OC-Zeiten, die heute keinen Sinn mehr ergeben.

Je nach Lastfall kann das trotzdem funktionieren, aber es gibt auch Situationen, an denen die Karte durch die verkrüppelte Kurve künstlich ausgebremst wird.
die kurve ist da, damit die karten in benchmarks gut aussehen. wenn weniger last anliegt, darf die karte dann schön boosten, obwohl du die fps garnicht brauchst. dann wenn die karte stark ausgelastet wird fällt der takt und die fps sind sowieso niedriger.

meiner meinung nach, gibt es keine nachteile, die oberen voltages wegzukappen.

falls sie anliegen, brauchst du sie nicht.

Semmel
2025-12-02, 09:12:51
die kurve ist da, damit die karten in benchmarks gut aussehen. wenn weniger last anliegt, darf die karte dann schön boosten, obwohl du die fps garnicht brauchst. dann wenn die karte stark ausgelastet wird fällt der takt und die fps sind sowieso niedriger.

meiner meinung nach, gibt es keine nachteile, die oberen voltages wegzukappen.

falls sie anliegen, brauchst du sie nicht.

Da beschreibst du für das Wegkappen nur den Idealfall, der so aber nicht immer zutreffend ist.
Es gibt viele verschiedene Lastfälle und es gibt auch welche, die die GPU nicht so effizient ausnutzen und daher auch bei 100 % GPU-Last das Powerlimit nicht ausnutzen. Die könnten also locker mit mehr Spannung mehr Takt nutzen. Warum sollte man diesen Lastfall absichtlich verkrüppeln?


Und wenn man wirklich einen Klassiker spielt, bei dem man keine 1000 fps braucht, dann kappt man doch besser die fps. Ist sinnvoller als die GPU willkürlich irgendwo zu kappen, was andere Lastfälle negativ beeinträchtigt.

Außerdem leben wir in Zeiten von Monitoren mit 240 Hz und mehr. In den meisten Spielen kann man also jedes zusätzliche fps gebrauchen.



Es geht beim Curve optimizen meistens nicht darum das maximum rauszuholen sondern den Sweet spot für den Alltagsbetrieb. Die Karte arbeitet super effizient bei 3 GHz mit 0.925 V und bleibt dabei sogar unter dem Power Limit. jetzt kann man natürlich nach oben offen lassen, auf einmal braucht die Karte 50 W mehr, ich bekom aber nur läppische 100 MHz. Deswegen regelt man ab - weils ineffizient und/oder Instabil wird.

Dann ist es immer noch besser, dass man die Kurve nach oben offen lässt und das Powerlimit auf 250 W runtersetzt.

dmsephiroth
2025-12-02, 09:50:24
Besitzt jemand die MSI Gaming Trio OC 5070ti und kann was zu den Lüftern, maximal RPM während Gaming /Benchmarks sagen?

Leider finde ich kein Review der Non-Plus Variante :/

Und gleiche Fragen bezogen auf das Zotac AMP Extreme Infinity Modell :)

BlacKi
2025-12-02, 09:51:32
Es gibt viele verschiedene Lastfälle und es gibt auch welche, die die GPU nicht so effizient ausnutzen und daher auch bei 100 % GPU-Last das Powerlimit nicht ausnutzen.

weil ich 1% mehr takt bei 10% mehr verbrauch nicht für sinnvoll erachte. niemand sagt, das man die karte auf das minimum stellen sollte.

OgrEGT
2025-12-02, 10:03:04
Die 3.2 GHz werden nicht abgedeckt von der Kurve - die Karte darf nicht über 0.925 V Spannung gehen und nicht über die 3 GHz.
So ist es die Kurve deckt diesen Punkt nicht ab. Die Karte darf gem dieser Kurve aber sehr wohl mehr als 925mV anlegen was sie ggf auch macht um das Powerlimit auszuschöpfen... was mit dieser Kurve limitiert wurde ist der Takt von 3015MHz...
Wenn man die Spannung limitierten möchte bspw. bei 925mV dann müsste die Kurve an dem Punkt senkrecht nach oben verlaufen. Wenn beides limitiert werden sollte also Takt bei 3015Mhz und die Spannung bei 925mV dann müsste die Kurve an genau dem Punkt enden und es dürften keine weiteren Punkte vorgegeben werden.
Kommt schon Leute könnt ihr die Kurve nicht lesen?
Mathematik Oberstufe Analysis I?

Holundermann
2025-12-02, 10:23:59
So ist es die Kurve deckt diesen Punkt nicht ab. Die Karte darf gem dieser Kurve aber sehr wohl mehr als 925mV anlegen was sie ggf auch macht um das Powerlimit auszuschöpfen... was mit dieser Kurve limitiert wurde ist der Takt von 3015MHz...
Wenn man die Spannung limitierten möchte bspw. bei 925mV dann müsste die Kurve an dem Punkt senkrecht nach oben verlaufen. Wenn beides limitiert werden sollte also Takt bei 3015Mhz und die Spannung bei 925mV dann müsste die Kurve an genau dem Punkt enden und es dürften keine weiteren Punkte vorgegeben werden.
Kommt schon Leute könnt ihr die Kurve nicht lesen?
Mathematik Oberstufe Analysis I?

Ich würde empfehlen weniger zu raten als es selber auszuprobieren - die Karte wird mit der Kurve nie mehr als 0.925V anlegen, du hast wsl. auch den gleichen Effekt wenn du die Spannung auf ein nicht erreichbares niveau anhebst.

Das hat jetzt mal gar nix mit Mathematik zu tun, die 'Kurve' - ist ja keine Kurvenfunktion sondern für einen Spannungswert kann man die Taktfrequenz setzen - und danke - ich kenn mich ganz gut aus in Mathe - hab immerhin Informatik studiert.


Dann ist es immer noch besser, dass man die Kurve nach oben offen lässt und das Powerlimit auf 250 W runtersetzt.

Wie du meinst - die Karte wird halt mit steigender Frequenz und Spannung ineffektiver - aber Prinzibiell hast du recht und genau so mach ich das auch: ich setz sowohl ein Takt/Spannungslimit wie auch ein TDP limit und hab trotzdem 10% mehrperformance gegenüber stock. Das man jetzt zusätzlich noch die FPS beschränken sollte ist auch korrekt!

Cubitus
2025-12-02, 11:19:32
Über 3 GHz hinaus ist für mich nicht das Ziel. Die Karte soll ihren Sweetspot erreichen und rund um die Uhr zuverlässig gute Leistung bringen. Da bin ich ganz bei Holundermann, er hat das genau richtig erkannt. Mit dieser Kurve erreicht sie zwar kurzzeitig 3 GHz, läuft sonst aber meist zwischen 2950 und 3000 MHz und verbraucht zum Beispiel im anspruchsvollen Steelnomad unter 4K durchschnittlich etwa 265 Watt bei respektablem Ergebnis unter PCIE 4.0 Das Powerlimit ist dabei noch auf Standard, +10 Prozent mehr wären möglich, bringen so aber im Grunde nur zusätzliche Wärme.

https://i.postimg.cc/2LB0g771/Screenshot-2025-12-02-102156.png (https://postimg.cc/2LB0g771)

Im Speedway ähnlich gutes Ergebnis bei ~265 Watt

https://i.postimg.cc/bG7gktj5/Screenshot-2025-12-02-103123.png (https://postimg.cc/bG7gktj5)

Bei normalen Games wie Borderlands 4 (mit Gsync) sind es dann auch deutlich unter 200 Watt.

https://i.postimg.cc/k6cksmvK/Borderlands-4-Screenshot-2025-12-02-11-07-01-09.jpg (https://postimg.cc/k6cksmvK)

Bei sehr guter Leistung, die den Standard übertrifft, braucht es keine 3 GHz+ bei über 1 Volt. Allerdings sind 925 mV das harte Limit für 3 GHz, und über 3 GHz konstant -und ohne Abstürze zu halten, gelingt mir mit den 925 mV nicht.

Man kann mit Einschränkung des PL arbeiten, für mich macht das aber keinen Sinn, da die Karte für einen mV-Wert, den ich als effizient erachte, kontinuierlich liefern soll. Mit P/L ist es mir am Ende des Tages einfach zu ungenau.
Auch im unteren Bereich ist es mit der Kurve kein Problem, die Karte taktet brav auf 180 MHz herunter, was dem Idle-Verbrauch zugutekommt. :)

Semmel
2025-12-02, 12:24:03
Über 3 GHz hinaus ist für mich nicht das Ziel. Die Karte soll ihren Sweetspot erreichen und rund um die Uhr zuverlässig gute Leistung bringen. Da bin ich ganz bei Holundermann, er hat das genau richtig erkannt. Mit dieser Kurve erreicht sie zwar kurzzeitig 3 GHz, läuft sonst aber meist zwischen 2950 und 3000 MHz und verbraucht zum Beispiel im anspruchsvollen Steelnomad unter 4K durchschnittlich etwa 265 Watt bei respektablem Ergebnis unter PCIE 4.0 Das Powerlimit ist dabei noch auf Standard, +10 Prozent mehr wären möglich, bringen so aber im Grunde nur zusätzliche Wärme.

https://i.postimg.cc/2LB0g771/Screenshot-2025-12-02-102156.png (https://postimg.cc/2LB0g771)

Fast das Gleiche ereiche ich mit offener Kurve und einem Powertarget von 252 Watt. (@5800X3D)
Da habe ich einen konstenten Stromverbrauch von diesen ca. 252 W.
Damit läuft die GPU ebenfalls meistens zwischen 2950 und 3000 MHz, aber sie darf eben zwischenzeitlich auch mal auf knapp 3,3 GHz @ 1,05 V boosten. Ich habe sogar den Eindruck, dass das die Frametimes verbessert.

Cubitus
2025-12-02, 12:43:05
Fast das Gleiche ereiche ich mit offener Kurve und einem Powertarget von 252 Watt. (@5800X3D)
Da habe ich einen konstenten Stromverbrauch von diesen ca. 252 W.
Damit läuft die GPU ebenfalls meistens zwischen 2950 und 3000 MHz, aber sie darf eben zwischenzeitlich auch mal auf knapp 3,3 GHz @ 1,05 V boosten. Ich habe sogar den Eindruck, dass das die Frametimes verbessert.

Da bin ich aktuell mit meiner großen 5090 dabei zu testen, ob sich die 60–70 Watt mehr lohnen, nur um die Karte über 3000 MHz zu prügeln und ob das in den 1%-Low-Perzentilen überhaupt einen Unterschied macht.
Je nach Setting wären das 200–300 MHz mehr Takt, aber dafür kratzt man dann auch an der 600-Watt-Grenze. Da sitze ich im Büro quasi im T-Shirt und kurzer Hose :freak:

Die 5070 TI TUF OC ist halt eine extrem leise Karte durch den Kühler. Wenn ich sie bei etwa 925 mV bei Laune halte, bleiben die Lüfter konstant bei 700–800 RPM.
Dadurch hörst du am Ende alles andere im Rechner nur die GPU nicht. Sobald du aber über 1,05 Volt boostest, verändern sich Temperatur und damit natürlich auch die Lüftergeschwindigkeit.
Unterm Strich dürfte es bei den normalen AVG-FPS keine große Rolle spielen, ob du mal kurzzeitig höher boostest oder konstant knapp unter 3 GHz fährst. Am Ende des Tages greift so oder so das Powerlimit.

Semmel
2025-12-03, 08:32:32
Dadurch hörst du am Ende alles andere im Rechner nur die GPU nicht. Sobald du aber über 1,05 Volt boostest, verändern sich Temperatur und damit natürlich auch die Lüftergeschwindigkeit.

Ich bin mit dem Kühler meiner TUF auch sehr zufrieden. Die Temperatur hängt aber immer noch von der Verlustleistung ab und nicht von der Spannung. ;)
Daher machen die Boosts nichts aus.
Ich lasse meine TUF im Alltag nur mit 252 W Powerlimit laufen, weil so der ganze PC inkl. CPU- und Gehäuselüfter im gedämmten Gehäuse unhörbar bleibt. Die Performance ist dank OC trotzdem etwas über Stock.

Holundermann
2025-12-03, 09:46:36
Dann ist es immer noch besser, dass man die Kurve nach oben offen lässt und das Powerlimit auf 250 W runtersetzt.

Eine Sache noch dazu: es macht für mich trotzdem Sinn die Kurve nach oben zu Beschränken und ich möchte auch erklären warum.

Ich denke es kann passieren das man dann Taktraten erreicht welche nicht stabil sind. Das wird dann vielleicht in 99% der Fälle gut gehen weil der Takt nur kurz anliegt, die Karte sollte aber nur Frequenzen erreichen die 24/7 stabil sind - alles andere führt früher oder später zu Instabilitäten. Deshalb beschränke ich die Kurve bei den Frequenzen.

Semmel
2025-12-03, 09:54:42
Ich denke es kann passieren das man dann Taktraten erreicht welche nicht stabil sind. Das wird dann vielleicht in 99% der Fälle gut gehen weil der Takt nur kurz anliegt, die Karte sollte aber nur Frequenzen erreichen die 24/7 stabil sind - alles andere führt früher oder später zu Instabilitäten. Deshalb beschränke ich die Kurve bei den Frequenzen.

Wenn das so ist, dann ist die Kurve nicht optimal. Dann braucht man einen höheren Steigungswinkel.
Meine Erfahrung ist allerdings eher das Gegenteil, also dass die Kurve zu steil ist und bei höheren Taktraten sogar etwas weniger Spannung geht. Vielleicht hatte ich aber auch nur Glück, wer weiß.

So oder so zeigen jedenfalls die Benchmarkergebnisse, dass es am Ende alles keinen riesigen Unterschied macht. Es geht im Endeffekt nur um die Optimierung der letzten paar %. :)

Cubitus
2025-12-03, 10:07:50
Ich bin mit dem Kühler meiner TUF auch sehr zufrieden. Die Temperatur hängt aber immer noch von der Verlustleistung ab und nicht von der Spannung. ;)
Daher machen die Boosts nichts aus.
Ich lasse meine TUF im Alltag nur mit 252 W Powerlimit laufen, weil so der ganze PC inkl. CPU- und Gehäuselüfter im gedämmten Gehäuse unhörbar bleibt. Die Performance ist dank OC trotzdem etwas über Stock.

Jein, es hängt auch stark von der jeweiligen Karte ab. Bei der 40er-Generation konntest du den Hotspot noch gut auslesen bzw. belegen. Höhere Spannung triggert den Hotspot und erzeugt zusätzliche Wärme, was wiederum dazu führen kann, dass die Lüfter kurzeitig höher drehen. Gleichzeitig wirken stärkere elektromagnetische Kräfte in den Spulen, die Schwingungsamplitude steigt und durch die höheren Boosts/Voltage entsteht mehr Coil Whine. Dadurch wirkt die GPU lauter, sogar wenn die Lüfterdrehzahl unverändert bleibt.

Seit der 3090 betreibe ich konsequent Undervolting und habe so ziemlich alle Wege getestet, inklusive einer ganzen Reihe an Karten, die ich zwischendurch durchgenudelt habe. Für mich ist die Begrenzungsmethode aus mehreren Gründen die beste Lösung.

Am Ende gibt es aber kein richtig oder falsch. Es hängt immer von mehreren Faktoren ab.
Wenn die Karte generell ruhig bleibt, sich ein höherer Boost für dich besser anfühlt und sie stabil läuft, dann lass es einfach so.

Semmel
2025-12-03, 10:16:57
Seit der 3090 betreibe ich konsequent Undervolting und habe so ziemlich alle Wege getestet, inklusive einer ganzen Reihe an Karten, die ich zwischendurch durchgenudelt habe. Für mich ist die Begrenzungsmethode aus mehreren Gründen die beste Lösung.


Ich war ja zuvor viele Jahre bei AMD und bin erst mit der 5070 Ti wieder zu Nvidia gewechselt, daher fehlen mir die Erfahrungen der vorherigen Generationen. Allerdings war ich dadurch auch unvorbelastet. Das mit der Begrenzung hat laut meiner Recherche damals durchaus Sinn gemacht, aber für Blackwell soll das alles so nicht mehr zutreffend sein.
Wie dem auch sei, ich bin mit der aktuellen Konfiguration sehr zufrieden, daher lasse ich es so.

Spulenfiepen ist auch ein Thema, wobei das zu einem großen Teil eine Lotterie sein soll. Ich hatte echt Glück, da ich bei meiner Karte auch in Extremsituationen kein hörbares Spulenfiepen habe. Meine vorherige 6900 XT war da schon hörbar, wenn auch nicht schlimm.

Blase
2025-12-03, 16:23:36
Die schlichte Begrenzung des Powerlimits ist halt sehr einfach. Ein Wert eingestellt und gut ist. Die Karte drosselt immer dann konsequent ab, wenn das Powerlimit erreicht ist. Du hast also nie einen Verbrauch oberhalb der eingestellten Schwelle. Da die Karten ootb schon oberhalb des Sweetspots laufen, hast du so minimalen Leistungsverlust bei - je nach Einstellung - spürbarer Reduktion des Verbrauchs.

Der Vorteil eines UVs ist, dass Karten bestimmte Taktraten meistens auch mit geringerer Spannung erreichen, als im Standard vorgesehen. Du drosselst also die Spannung - und damit direkt den Verbrauch - und hast möglicherweise trotzdem die Leistung, als hättest du nicht gedrosselt. Du schiebst also das Powerlimit - und damit auch das Temperaturlimit - weiter nach hinten.

Die seit vielen Jahren eingestellte "begradigte Kurve" ab einer bestimmten Spannung markiert halt die gewünschte Grenze eines UVs. Mehr Spannung soll er nicht geben - und damit ist die maximale Taktrate begrenzt.

Entgegen des hart eingestellten Powerlimits hast du so - in aller Regel - mehr Leistung bei "identischem" Verbrauch zum Powerlimit. Aber in Summe reden wir hier von keinen allzu großen Unterschieden. Bei meiner 4090 hatte ich hart 70 Prozent Powertarget und fertig. Bei der 5090 fahre ich ein feines UV.

Kannst du ja einfach selbst ausprobieren und schauen, ob und wie viel ein UV dir mehr bringt, wenn du auf "Leistung/Verbrauch" Wert legst...

MfG Blase

Semmel
2025-12-03, 16:48:06
Kannst du ja einfach selbst ausprobieren und schauen, ob und wie viel ein UV dir mehr bringt, wenn du auf "Leistung/Verbrauch" Wert legst...


Ich nutze schon auch UV, nur mit dem Unterschied, dass meine Kurve nach oben offen ist. Den Verbrauch drossle ich nicht mit einem Spannungslimit, was je nach Situation zu völlig unterschiedlichem Verbrauch führt, sondern per Powerlimit. So gefällt es mir besser.

ianm
2025-12-03, 21:49:45
Besitzt jemand die MSI Gaming Trio OC 5070ti und kann was zu den Lüftern, maximal RPM während Gaming /Benchmarks sagen?

Leider finde ich kein Review der Non-Plus Variante :/

Was soll da großartig anders sein? Bissel weniger Takt, was eh Latte ist, weil man undervoltet. Orientier dich hier dran.

https://www.techpowerup.com/review/msi-geforce-rtx-5070-ti-gaming-trio-oc/40.html

Beste 5070ti, läuft hier mit 0,93V, 3090 MHz Takt, +3000 aufm RAM und verbraucht meist um die 200W in sowas wie Horizon Forbidden West. Die Lautstärkeangaben von Techpowerup kann ich so unterschreiben.

Dorn
2025-12-04, 08:22:25
Ich nutze schon auch UV, nur mit dem Unterschied, dass meine Kurve nach oben offen ist. Den Verbrauch drossle ich nicht mit einem Spannungslimit, was je nach Situation zu völlig unterschiedlichem Verbrauch führt, sondern per Powerlimit. So gefällt es mir besser.
Zusätzlich kann man sogar per FPS Limit den Verbrauch senken. :biggrin:
Wenn man ganz hart ist, DLSS und Frame Generation Regler bis zur Schmerzgrenze setzten. ;D

Cubitus
2025-12-04, 11:03:12
Zusätzlich kann man sogar per FPS Limit den Verbrauch senken. :biggrin:
Wenn man ganz hart ist, DLSS und Frame Generation Regler bis zur Schmerzgrenze setzten. ;D

Bis zu MFG x3 empfinde ich das auch wirklich ein valides Argument. Je nach Spiel liegst du da bei einer Latenz zwischen 40 und 60 ms, zumindest unter 4K. Das geht absolut klar.
Genau deshalb ist eine 5070 Ti für 4K auch wesentlich besser geeignet als es die 4070 Ti jemals war.

Unter 1440p kannst du dann richtig sparen. Das Transformermodell auf „Qualität“ sieht schon sehr gut aus, und unter 4K macht selbst „Balanced“ noch ein hervorragendes Bild.
Da fragt man sich wirklich: Wozu brauche ich eigentlich so einen dicken Stromschlucker wie die 5090 im Rechner? Nvidia macht sich da die Konkurrenz im Grunde selbst.

Lurtz
2025-12-14, 13:05:15
Meine 5070 Ti macht mir bisschen Sorgen. Zuletzt immer wieder Treibercrashes auf dem Desktop (Piepton aus den Lautsprechern, Bild hängt, dann schwarzer Bildschirm und Reset). Zuletzt beim Umschalten von HDR auf SDR komplett eingefroren.

Ich hoffe jetzt eher das sind Treiberprobleme, ich meine vor dem 591er-Branch ist das noch nicht aufgetreten.

Daredevil
2025-12-14, 13:15:22
Klingt aber auch ein wenig nach RAM bzw. auch so ein Display Kabel kann mal die grätsche machen. Du weißt ja wie das läuft, mal alles Stock setzen und beobachten, auch wenn es schwer fällt. ^^

Ex3cut3r
2025-12-14, 13:26:22
Meine 5070 Ti macht mir bisschen Sorgen. Zuletzt immer wieder Treibercrashes auf dem Desktop (Piepton aus den Lautsprechern, Bild hängt, dann schwarzer Bildschirm und Reset). Zuletzt beim Umschalten von HDR auf SDR komplett eingefroren.

Ich hoffe jetzt eher das sind Treiberprobleme, ich meine vor dem 591er-Branch ist das noch nicht aufgetreten.

Was? Keine Probleme hier, allerdings RTX 5080 mit 581.94. Ich habe aktuell kein Game was PhysX braucht, daher ausgelassen. Bzw. habe keinen Bock wieder das beim jedem Spiel die Shader neu kompliert werden müssen. Das dauert mit 8C/16T zu lange. Da ist eine Intel CPU im Vergleich zu den "Krüppel" RYZENs Gold wert. Auch wenn die Ryzen Fans das gekonnt ignorieren. ^^

https://gofile.io/d/uVoltu

Lurtz
2025-12-14, 13:31:09
Klingt aber auch ein wenig nach RAM bzw. auch so ein Display Kabel kann mal die grätsche machen. Du weißt ja wie das läuft, mal alles Stock setzen und beobachten, auch wenn es schwer fällt. ^^
Boah, ich hoffe nicht. Wäre aber typisch wenn die teuerste GPU, die ich je gekauft habe, nach ein paar Monaten stirbt.

Mal sehen...

aufkrawall
2025-12-14, 14:00:06
Ich hoffe jetzt eher das sind Treiberprobleme
Möglich. Wenn Blackwell crasht, crasht das offenbar gerne hart die Firmware o.ä. auf der Karte. Hab ich schon bei diversen Sachen gehabt (Ursache aber keine Treiber-Crashes/Bugs direkt): Der Treiber kam dann nach einem Reset gar nicht mehr aus den Puschen und ich musste das System erstmal komplett ausschalten.

Banshee18
2025-12-21, 11:02:57
Seit einigen Tagen hat meine Frau eine Palit GamingPro-S. Per Afterburner auf 0,925 bei 3000MHz begrenzt und läuft, sogar angenehm leise. Ich weiß nicht, ob noch mehr geht, wir sind aber so schon sehr zufrieden und froh, kein teureres Modell gekauft zu haben. Sie ist der perfekte Partner für den Alienware AW3425DW (3440x1440). Alles bisher Getestete läuft butterweich. Cyberpunk mit maximalen Details, DLSS Performance und MFGx4 ist eine Augenweide und läuft prima. Von MFG bin ich positiv überrascht nach aller Kritik, die man so liest.

Ex3cut3r
2025-12-21, 15:04:54
Cyberpunk mit maximalen Details, DLSS Performance und MFGx4 ist eine Augenweide und läuft prima. Von MFG bin ich positiv überrascht nach aller Kritik, die man so liest.
Leider ist das eben das Resultat, wenn man die Nvidia-kritischen Influencer wie Gamer Nexus und Co. zu ernst nimmt. Ich kann zu MFG x2, x3 und x4 bisher nur Positives berichten. Auf einem QD-OLED mit 4K und 240 Hz ist das für mich der absolute Gamechanger, weil man den Monitor dadurch endlich wirklich ausreizen kann.

Die „Fake Frames“ funktionieren bei Nvidia mit der 50er-Generation extrem gut. Im normalen Gameplay sehe ich kaum Artefakte, vorausgesetzt, die Basis-FPS liegen bei mindestens etwa 40 FPS.

Und ganz ehrlich: Ob die zusätzlichen Frames „echt“ sind oder nicht, ist am Ende egal, wenn die Zwischenbilder so überzeugend aussehen und man die Smoothness auf einem 240Hz+-Monitor tatsächlich sieht. Mir tun eher die Leute leid, die noch nicht verstanden haben, dass die Zukunft in Richtung 1000 Hz/FPS geht, und dass das nur über Frame-Generation bzw. „Fake Frames“ sinnvoll erreichbar ist.

Cubitus
2025-12-21, 15:25:28
Seit einigen Tagen hat meine Frau eine Palit GamingPro-S. Per Afterburner auf 0,925 bei 3000MHz begrenzt und läuft, sogar angenehm leise. Ich weiß nicht, ob noch mehr geht, wir sind aber so schon sehr zufrieden und froh, kein teureres Modell gekauft zu haben. Sie ist der perfekte Partner für den Alienware AW3425DW (3440x1440). Alles bisher Getestete läuft butterweich. Cyberpunk mit maximalen Details, DLSS Performance und MFGx4 ist eine Augenweide und läuft prima. Von MFG bin ich positiv überrascht nach aller Kritik, die man so liest.

Die Karte fühlt sich bei der Auflösung richtig wohl, das kann ich bestätigen. MFG ist eine feine Sache, wobei 4x schon eine höhere Latenz mit sich bringt. Für mich ist 3x der beste Kompromiss aus Leistung und Latenz. Selbst die 5090 ist damit stromsparender als die 4090. Bei der 4070TI dürften es um die 120–150 Watt Verbrauch sein zu wenig, um die Raumheizung auszulassen. Hätte ich kein 4K und wäre nur mit 1440p unterwegs, wäre die 5070TI meine Karte der ersten Wahl.

4K ist auch mit DLSS Performance und 3x MFG sowie hohem RT auf der 5070TI spielbar, aber man merkt, dass sich eine fette 5090 dank höherer Min-FPS doch noch ein Stück besser anfühlt. MFG hin oder her das ist Jammern auf höchsten Niveau. Nebenbei steht hier noch ein Amiga, einfach um mich zu erden.. :freak:

Eine Runde AlienBreed 3D2 und danach weiß man wieder, wie gut doch nur 120 FPS mit Gsync und MFG sich anfühlen können xD

ExJuvantibus
2025-12-21, 15:26:22
Da ist eine Intel CPU im Vergleich zu den "Krüppel" RYZENs Gold wert. Auch wenn die Ryzen Fans das gekonnt ignorieren. ^^




Naja richtiges Werkzeug für die jeweilige Aufgabe.

Anwendungen (und Notebooks gibts eh kaum was andres) Intel.

Spiele X3D.

Bedarf an fetter MT Leistung und Spielen? 9950 X3D.


Preislich finde ich die 650 für den 9950 X3D nicht mal so schlimm, hab selbst mit dem Gedanken gespielt weil .... geil, aber brauchs halt überhaupt nicht, wenn ich ehrlich bin. Vor allem wenn ich sehe, dass Intel immer noch 500 für den 285k aufruft und 700 für den 14900KS. ;D Sicher, die würde man die nicht kaufen weil P/L, aber den AMD WÜRDE man kaufen wenn mans braucht. Zudem noch nicht die Nachteile mit derart extremer Leistungsaufnahme, oder rapider Abnutzung oder toter Plattform schon bei Release weil nichts fundamental neues kommt.


Alles darüber wie Threadripper leidet dann wieder bei Spielen.


Frühestens ändern wird sich daran erst was wenn 3 nm CPUs kommen und Intel und AMD mit neuen Designs antreten.

Hakim
2025-12-21, 15:31:32
Ja jeder wie er es sehen will. Ganz ehrlich ich finde es ok das es einigen gefällt und damit glücklich sind. Mit persönlich sagt es nicht zu. Wozu wollte man früher ~166-300 fps? Weil es die Latenz auf ein Minimum senkt. Was hab ich davon wenn ich die Latenz von 60 fps habe aber die Anzeige 240 fps zeigt? Da könnte ich ja auch einfach 240 oben aufs Display aufschreiben. Ja gut fürs Auge sieht es deutlich flüssiger aus, aber die Eingabe ändert sich nicht großartig. Das ist meine persönliche Ansicht, aber muss auch zugeben das ich bisher nur die FG der Ada Gen gesehen habe, noch nicht mit BW und MFG gespielt.

Cubitus
2025-12-21, 15:35:37
Naja richtiges Werkzeug für die jeweilige Aufgabe.

Anwendungen (und Notebooks gibts eh kaum was andres) Intel.

Spiele X3D.



Ich behaupte mal, dass sich der Vorteil einer X3D-CPU mit MFG fast komplett relativiert und sich das Blatt klar zu Intel wendet, sobald die GPU limitiert. Das sehe ich an meinem gut eingestellten 13600K im Zweitrechner. Der ist dank konstantem Idle-Verbrauch von 1–2 Watt und unter Last 70-80 Watt, dank MFG beim Spielen im Schnitt sparsamer und liefert genug Leistung, um eine 5070 Ti anzutreiben. Und mal ehrlich: Wer spielt schon in 720p mit niedrigen Grafikdetails? Das Thema, dass nur X3D die ultimativen Gaming-CPUs seien, halte ich, vor allem von der Fachpresse für viel zu einseitig betrachtet, ohne dich jetzt angreifen zu wollen.

Da könnte ich ja auch einfach 240 oben aufs Display aufschreiben. Ja gut fürs Auge sieht es deutlich flüssiger aus, aber die Eingabe ändert sich nicht großartig. Das ist meine persönliche Ansicht, aber muss auch zugeben das ich bisher nur die FG der Ada Gen gesehen habe, noch nicht mit BW und MFG gespielt.

Im Nvidia Overlay kannst du dir bequem die Latenz anzeigen lassen, was natürlich auch vom jeweiligen Spiel abhängt. Es gibt Games wie Doom, die ohne M(FG) nur etwa 10-15 ms Latenz haben, mit MFG dann aber 20 bis hin zu 60+ ms was gerade auf höheren Schwierigkeitsgraden echt nervt. Dann gibt es Spiele wie Dying Light the Beast, die ohne M(FG) bei 20-30 ms liegen und seit den neuesten Patches mit 3x MFG etwa 35-45 ms erreichen, was sich dank hoher FPS noch gut anfühlt. Ähnlich bei Cyberpunk meiner Erfahrung nach wird es ab ca. 50 ms gummiartig, wobei das persönliche Empfinden eine große Rolle spielt. MFG ist trotzdem die Zukunft, da krasse Raytracing-Grafik nicht mehr mit der Brechstange erzwungen werden kann. Eine zukünftige 6090 mit über 600 Watt will nicht mal Jensen selbst, und ich denke, das ist im normalen Consumer-Bereich – Sondermodelle außen vor das Maximum, das wir bei der 5090 gesehen haben.

deepmac
2025-12-21, 21:12:25
Bin auch zufrieden mit meinem 14600kf im Zusammenspiel mit der Prime 5070 TI.

Ex3cut3r
2025-12-21, 21:30:54
Ähmm, warum auch nicht? Man muss tatsächlich nicht jede CPU Generation mitmachen, sollte doch mittlerweile jeder im 3DCenter wissen?

Hakim
2025-12-21, 21:38:27
Die graka kannst du auch mit ins nächste System mitnehmen und so schlecht ist die 14600k nicht, vor allem da in den höheren Auflösungen es wenig Unterschied gibt

DrFreaK666
2025-12-22, 06:03:53
dass die Zukunft in Richtung 1000 Hz/FPS geht.

So ein Blödsinn. Wer braucht sowas außer Monitor-Hersteller? Als ob jemand den Unterschied zwischen 480 und 1000 sehen würde :rolleyes:

OgrEGT
2025-12-22, 07:00:35
So ein Blödsinn. Wer braucht sowas außer Monitor-Hersteller? Als ob jemand den Unterschied zwischen 480 und 1000 sehen würde :rolleyes:
Normale User sicherlich nicht... high competitive eSport CS Gamor ggf schon...

Silentbob
2025-12-22, 09:57:16
Die spielen wohl kaum mit MFG.

Meine ASUS Tuf 5070 TI ist auch seit ein paar Wochen im Einsatz, der Wechsel von der 3060 TI hat sich schon sehr gelohnt, bin echt zufrieden.

Temperatur max. 60° und während dem Betrieb beinahe unhörbar, top Karte.

Ex3cut3r
2025-12-22, 12:22:13
So ein Blödsinn. Wer braucht sowas außer Monitor-Hersteller? Als ob jemand den Unterschied zwischen 480 und 1000 sehen würde :rolleyes:

Warum soll das Blödsinn sein, nur weil es dir nicht in den Kram passt?

Seit der 5080 spiele ich kein einziges AAA-Game, das meinen 240-Hz-Monitor nicht wirklich auslastet. Und die Entwicklung geht längst weiter: Es gibt bereits OLED-Displays mit 1440p und 480 Hz, und 720-Hz-Modelle stehen schon in den Startlöchern.

MFG wird weiter wachsen, Faktoren wie x8 oder x10 sind absolut realistisch. Das eigentliche Problem sind eher Nutzer wie du, die noch in alten Denkmustern hängen und ihr persönliches Empfinden als allgemeingültig darstellen.

https://s1.directupload.eu/images/user/251213/thumb/l4alzstn.webp (https://www.directupload.eu/file/u/79486/l4alzstn_png.htm) https://s1.directupload.eu/images/user/251213/thumb/57qt4x4w.webp (https://www.directupload.eu/file/u/79486/57qt4x4w_png.htm) https://s1.directupload.eu/images/user/251213/thumb/7jo7d3yw.webp (https://www.directupload.eu/file/u/79486/7jo7d3yw_png.htm) https://s1.directupload.eu/images/user/251213/thumb/9pgk8r6k.webp (https://www.directupload.eu/file/u/79486/9pgk8r6k_png.htm) https://s1.directupload.eu/images/user/251213/thumb/nvfqzwy8.webp (https://www.directupload.eu/file/u/79486/nvfqzwy8_png.htm)

dildo4u
2025-12-22, 12:54:17
Fand das interessant Geforce now erzeugt soviel Lag wie MFG

I3xYHYuMqZU

DrFreaK666
2025-12-23, 01:48:05
Warum soll das Blödsinn sein, nur weil es dir nicht in den Kram passt?

Seit der 5080 spiele ich kein einziges AAA-Game, das meinen 240-Hz-Monitor nicht wirklich auslastet. Und die Entwicklung geht längst weiter: Es gibt bereits OLED-Displays mit 1440p und 480 Hz, und 720-Hz-Modelle stehen schon in den Startlöchern.

MFG wird weiter wachsen, Faktoren wie x8 oder x10 sind absolut realistisch. Das eigentliche Problem sind eher Nutzer wie du, die noch in alten Denkmustern hängen und ihr persönliches Empfinden als allgemeingültig darstellen.

https://s1.directupload.eu/images/user/251213/thumb/l4alzstn.webp (https://www.directupload.eu/file/u/79486/l4alzstn_png.htm) https://s1.directupload.eu/images/user/251213/thumb/57qt4x4w.webp (https://www.directupload.eu/file/u/79486/57qt4x4w_png.htm) https://s1.directupload.eu/images/user/251213/thumb/7jo7d3yw.webp (https://www.directupload.eu/file/u/79486/7jo7d3yw_png.htm) https://s1.directupload.eu/images/user/251213/thumb/9pgk8r6k.webp (https://www.directupload.eu/file/u/79486/9pgk8r6k_png.htm) https://s1.directupload.eu/images/user/251213/thumb/nvfqzwy8.webp (https://www.directupload.eu/file/u/79486/nvfqzwy8_png.htm)

Darauf bist natürlich nicht eingegangen :rolleyes:
Als ob jemand den Unterschied zwischen 480 und 1000 sehen würde

Ex3cut3r
2025-12-23, 02:11:08
Darauf bist natürlich nicht eingegangen :rolleyes:
Und was soll ich dazu noch sagen? Ich merke den Unterschied zwischen 120 FPS/Hz und meinen nativen 240 Hz/FPS deutlich. Siehst du etwa keinen Unterschied zwischen 30/60 FPS/Hz und 144 FPS/Hz? Genau so verhält es sich auch zwischen 120 und 240 Hz auf einem QD-OLED.

x-force
2025-12-23, 02:44:13
Darauf bist natürlich nicht eingegangen :rolleyes:

du findest hier im monitorthread deine antwort, wahrscheinlich kennt executer sie selbst nicht.

tl:dr
du hast unrecht, very high refreshrate ist in verbindung mit mfg besonders wertvoll.

dargo
2025-12-23, 06:16:45
Und was soll ich dazu noch sagen? Ich merke den Unterschied zwischen 120 FPS/Hz und meinen nativen 240 Hz/FPS deutlich. Siehst du etwa keinen Unterschied zwischen 30/60 FPS/Hz und 144 FPS/Hz? Genau so verhält es sich auch zwischen 120 und 240 Hz auf einem QD-OLED.
Schon mal was vom Gesetz des abnehmenden Grenzertrags gehört? Und was die Ablenkung mit insbesondere lächerlichen 30Hz hier zu suchen hat (wo sogar noch LFC greift :freak:) weißt auch wohl nur du. Das Thema war >480Hz.

OgrEGT
2025-12-23, 06:24:38
Die spielen wohl kaum mit MFG.

Meine ASUS Tuf 5070 TI ist auch seit ein paar Wochen im Einsatz, der Wechsel von der 3060 TI hat sich schon sehr gelohnt, bin echt zufrieden.

Temperatur max. 60° und während dem Betrieb beinahe unhörbar, top Karte.
Ne natürlich nicht mit DLSS FG etc sondern nativ in LowRes mit bspw 1280x720 und entsprechend niedriger Latenz und hohen FPS...
Hier gings ja um wer braucht 1000Hz Monitore... wie gesagt normale Spieler mit MFG schwer vorstellbar und abseits professionellem eSport auch eher unnötig...

dargo
2025-12-23, 06:36:35
Hier gings ja um wer braucht 1000Hz Monitore... wie gesagt normale Spieler mit MFG schwer vorstellbar und abseits professionellem eSport auch eher unnötig...
Zumal du erstmal überall 250fps halten musst um diese 1000Hz voll auszufahren. Welches System soll sowas in jedem Spiel schaffen? Gibts nicht und wird es auch nicht geben. 1000Hz könnte ich mir aber vorstellen um auf VRR verzichten zu können. Dann wäre das VRR-Flicker "Problem" bei OLEDs auch Geschichte. Aber sowas müsste ich erst live sehen ob auch wirklich die Bildausgabe mit 1000Hz immer flüssig fürs Auge ohne VRR ist und auch Tearing nirgendwo mehr sichtbar.

ChaosTM
2025-12-23, 07:08:19
Wer weiß was sich NV noch so alles einfallen lässt. Vielleicht kriegt die Vera ja 16x MFG. Damit gehen sich auch 1000fps aus. ;)

dargo
2025-12-23, 07:18:44
Wie groß soll die Latenz noch weiter ansteigen? Über ungelegte Eier jetzt schon zu diskutieren ist meh. Zumal du mit noch mehr generierten Frames die Gefahr von mehr sichtbaren Artefakten erhöhst. Latenz ist da nicht das einzige Problem. Aber wie gesagt... über sowas zu diskutieren macht erst Sinn wenn es da ist. Erst dann kann man dies bewerten.

ChaosTM
2025-12-23, 07:24:24
Ironie - NV ist der Gaming Bereich derzeit völlig egal.

OgrEGT
2025-12-23, 08:01:55
Wie groß soll die Latenz noch weiter ansteigen? Über ungelegte Eier jetzt schon zu diskutieren ist meh. Zumal du mit noch mehr generierten Frames die Gefahr von mehr sichtbaren Artefakten erhöhst. Latenz ist da nicht das einige Problem. Aber wie gesagt... über sowas zu diskutieren macht erst Sinn wenn es da ist. Erst dann kann man dies bewerten.
Ganz genau... MFG>4 und in hypothetischen Regionen von MFG16 würde nur Sinn ergeben wenn die HW es schafft diese AI Frames im derzeitigen Frametine Fenster zu erzeugen... selbst wenn das gelingen würde stellt sich da dann die Sinnfrage Aufwand vs Nutzen...

OgrEGT
2025-12-23, 08:04:48
Ironie - NV ist der Gaming Bereich derzeit völlig egal.
MFG war nicht die Idee so dass die HW dazu gebaut wurde... es ging schon immer darum FP8/FP4 Berechnungen etc für AI zu beschleunigen... MFG ist ein "Abfallprodukt"...

Angiesan
2025-12-23, 11:24:15
Ich verstehe die Diskussion um mehr Hz bei Monitoren nicht. Man kann da zwar sagen, wer sieht es noch, doch hier greift einfach mehr ist immer besser. Wie Ec3cut3er schon geschrieben hat, merkt man oft den Unterschied zwischen 120 Hz OLED und 240Hz OLED ich habe hier den direkten Vergleich mit einem LG C2 mit 120Hz und einem Gigabyte QOLED mit 240Hz. Die Unterschiede sind jetzt nicht riesig, aber das Bewegtbild ist einfach noch mal eine Ecke schärfer. Ob dann 480Hz und 720HZ oder gar 1000Hz noch einen großen und für viele überhaupt wahrnehmbaren Unterschied bringen kann ich nicht beurteilen. Aber schlechter wird es nun mal nicht.

Wer sehr schnelle Shooter spielt, wird sich sicherlich über die bessere Bewegtschärfe freuen, ebenso wer z.B. Diablo spielt. Das war für mich entscheidend und eine wahre Offenbarung! Versucht mal in Bewegung die Schrift zu lesen mit einem 144HZ VA Panel, dann wechselt auf einen 120Hz OLED und staunt wie viel besser das wird ohne das die Refreshrate gestiegen ist im Gegenteil sie ist ja niedriger und dann noch mal den Wechsel auf 240 OLED. Aber selbst der 240HZ OLED ist noch nicht optimal, da ist noch Luft nach oben, wenn man noch mehr Hz zur Verfügung hätte.

MFG hilft einem halt dabei auf Kosten von einem erhöhten Inputlag das Bewegtbild zu optimieren jeder kann dann ja entscheiden, was für Ihn selbst mehr taugt. Ich nutze das gerne und 2x FG oder 3x MFG sind oft absolut brauchbar und der beste Kompromiss, in ein paar Spielen ist selbst 4X MFG absolut brauchbar. Schön das man mit einer NV die Wahl hat ;-).

Ex3cut3r
2025-12-23, 11:32:36
Genau so Angiesan. (y)
Die meisten können MFG doch aktuell gar nicht sinnvoll beurteilen. Meiner Meinung nach braucht es mindestens ein 180-Hz-Panel erst dann wird’s wirklich interessant.

MFG ist die Zukunft, und Nvidia ist clever genug, auch noch eine Technik gegen den Input-Lag zu entwickeln. Das werden sie schon hinbekommen. ;)

Mein Geld bekommen Sie! Und Intel scheint auch wieder gut dabei zu sein, mit der nächsten CPU Generation. Cache und viele Kerne. :)

Troyan
2025-12-23, 11:34:05
Leute haben eben kein Plan mehr und denken, nur weil die was akzeptabel finden, ist das schon genug. AMD User sind doch sowieso die besten hier: Spielen jahrelang mit beschissener Bildqualität, absurd hoher Latenz, grottigem Upscaling etc. Und tauchen dann hier auf, um einen die Welt zu erklären.

Ein CRT erreicht bei 60Hz eine Bewegtbildschärfe, die irgendwo bei 1000Hz bei Sample and Hold Monitoren anzusiedeln ist. MFG ist die einzige Möglichkeit überhaupt hohe Frames zu generieren, dass man endlich an eine Schärfe kommt, die Bewegung nicht als unschärfes etwas erscheinen lassen.

The_Invisible
2025-12-23, 11:44:44
Wie groß soll die Latenz noch weiter ansteigen? Über ungelegte Eier jetzt schon zu diskutieren ist meh. Zumal du mit noch mehr generierten Frames die Gefahr von mehr sichtbaren Artefakten erhöhst. Latenz ist da nicht das einzige Problem. Aber wie gesagt... über sowas zu diskutieren macht erst Sinn wenn es da ist. Erst dann kann man dies bewerten.

Die Latenzen sind mit MFG (und daher impliziten Reflex) immer niedriger als bei AMD ohne AL2 (wovon es wie viel gibt, 20-30 games?). Heißt also für dich auf Radeon ist immer alles unspielbar? :)

Lurtz
2025-12-23, 12:39:54
Ich denke auch 1.000 Hz werden locker zum Standard werden und idealerweise haben wir dann irgendwann eine immer aktive, sehr flexible Frame Generation, die die fehlenden Frames zur maximalen Refresh Rate einfach auffüllt.

Die Latenzen sind mit MFG (und daher impliziten Reflex) immer niedriger als bei AMD ohne AL2 (wovon es wie viel gibt, 20-30 games?). Heißt also für dich auf Radeon ist immer alles unspielbar? :)
Er nimmt doch jetzt Optiscaler, um nVidia-Tech zu AL2 umzubiegen, dafür ist sie gut genug ;)

DrFreaK666
2025-12-23, 12:45:25
Ich denke auch 1.000 Hz werden locker zum Standard werden und idealerweise haben wir dann irgendwann eine immer aktive, sehr flexible Frame Generation, die die fehlenden Frames zur maximalen Refresh Rate einfach auffüllt.

:D
Das war hoffentlich ironisch.
1000Hz Standard... Für was?
Seh es schon kommen: LG kündigt 960Hz TVs an. Geht halt nur mit 720p :ugly:

dargo
2025-12-23, 12:48:31
Leute haben eben kein Plan mehr und denken, nur weil die was akzeptabel finden, ist das schon genug. AMD User sind doch sowieso die besten hier: Spielen jahrelang mit beschissener Bildqualität, absurd hoher Latenz, grottigem Upscaling etc. Und tauchen dann hier auf, um einen die Welt zu erklären.

Stimmt... lieber mit Baseframes von 40fps + MFG Overhead auf Nvidia Hardware spielen. :uup: Originalbeispiel von Exe. Das ist dann wohl die Experience par excellence. :ulol:

Die Latenzen sind mit MFG (und daher impliziten Reflex) immer niedriger als bei AMD ohne AL2 (wovon es wie viel gibt, 20-30 games?). Heißt also für dich auf Radeon ist immer alles unspielbar? :)
Geh mal zum Arzt, irgendwas stimmt mit dir nicht. Nicht böse gemeint. :)


Er nimmt doch jetzt Optiscaler, um nVidia-Tech zu AL2 umzubiegen, dafür ist sie gut genug ;)
Nur in älteren Games wo AL2 fehlt. In vielen neueren ist es direkt drin.

:D
Das war hoffentlich ironisch.
1000Hz Standard... Für was?

Abteilung Aluhut. :D

Erstmal müssen OLEDs allgemein zum Standard werden was noch viele Jahre dauern wird. Danach reden wir über (ultra)high Refreshraten. Vor allem wird das dann ein Spaziergang mit der Verkabelung @4k(+)... not.

Ex3cut3r
2025-12-23, 12:52:35
Stimmt... lieber mit Baseframes von 40fps + MFG Overhead auf Nvidia Hardware spielen. :uup: Originalbeispiel von Exe. Das ist dann wohl die Experience par excellence. :ulol:

Geh mal zum Arzt, irgendwas stimmt mit dir nicht. Nicht böse gemeint. :)

Ich habe nicht gesagt, das ich so MFG benutze. In Doom Dark Ages habe ich native 120 FPS mit DLSS P und Ultra Settings bei 30 ms Input Lag, aktivere ich jetzt MFG x3 mit Reflex on. Bin ich bei 35 ms und angetackerten 225 FPS mit Reflex FPS Cap.

Das ist doch Prima. :smile:
Die Tech ist mega, leider bekommt AMD das Frame Pacing mit ihren FG x1 Klon nicht hin.

Daredevil
2025-12-23, 13:04:58
Ich verstehe die Diskussion um mehr Hz bei Monitoren nicht.
Das ist die gleiche Kurzfrist Diskussion wie damals, als vor von zwei auf vier Kernen gewechselt sind bei den CPUs. Manche brauchen nicht mehr als nen Dual Core und manche benötigen vielleicht auch nicht mehr als 50hz, das ändert aber nichts daran, dass technische Entwicklungen möglich sind und viele diese Entwicklung genießen. Mein MacStudio hat 28 CPU Kerne und ich bin für jeden davon sehr dankbar, weil ich mehr machen kann als früher mit "nur" 10 Kernen und davor mit 4 Kernen. :ulove:

Und btw: Fühlbare FPS > Sichtbare FPS > Gar keine FPS
Auf meinem IBM P260 habe ich schon in den frühen 2000ern mit 200hz gespielt, das wir jetzt erst diese Blockade brechen ist eigentlich ein Armutszeugniss. 1000fps sollten wohl wahr schon ein Standard sein. Thunderbolt 5 ist ready für 8K120 oder 4K540, gib mir die Displays. :usad:

Ex3cut3r
2025-12-23, 13:21:03
:D
Das war hoffentlich ironisch.
1000Hz Standard... Für was?
Seh es schon kommen: LG kündigt 960Hz TVs an. Geht halt nur mit 720p :ugly:

Mit einem Hold-Type-Display und 1000 Hz hast du praktisch keinen Motion Blur mehr, so simpel ist das. Außerdem gibt’s 1440p-OLEDs bereits mit 480 Hz bzw. 540 Hz. Ich verstehe ehrlich gesagt nicht, warum das für dich so schwer nachzuvollziehen ist. 720 HZ stehen schon in den Startlöchern, und bis 1000 Hz ist es dann auch nicht mehr weit. Und mit Nvidia MFGs Technik wird das alles schon zeitnah ausreizbar sein. Einfach nur der Hammer.

Ich kann es kaum erwarten.

dargo
2025-12-23, 13:35:48
Ich habe nicht gesagt, das ich so MFG benutze.

Das möchte ich doch stark hoffen.


In Doom Dark Ages habe ich native 120 FPS mit DLSS P und Ultra Settings bei 30 ms Input Lag, aktivere ich jetzt MFG x3 mit Reflex on. Bin ich bei 35 ms und angetackerten 225 FPS mit Reflex FPS Cap.

Mich überraschen etwas schon die relativ hohen 30ms bei 120fps in diesem Spiel. Bei diesem Shooter hätte ich weniger erwartet. Falls du GoT hast... welche Latenz hast du dort mit 120fps ohne FG? Rein aus Interesse.

Ex3cut3r
2025-12-23, 14:19:17
Habe ich nicht installiert aktuell. Ich habe stattdessen AC: Shadows.

DrFreaK666
2025-12-23, 14:56:12
Mit einem Hold-Type-Display und 1000 Hz hast du praktisch keinen Motion Blur mehr, so simpel ist das. Außerdem gibt’s 1440p-OLEDs bereits mit 480 Hz bzw. 540 Hz. Ich verstehe ehrlich gesagt nicht, warum das für dich so schwer nachzuvollziehen ist. 720 HZ stehen schon in den Startlöchern, und bis 1000 Hz ist es dann auch nicht mehr weit. Und mit Nvidia MFGs Technik wird das alles schon zeitnah ausreizbar sein. Einfach nur der Hammer.

Ich kann es kaum erwarten.

Ok: Ich und höchstwahrscheinlich die Mehrheit der Gamer benötigen das nicht

Ex3cut3r
2025-12-23, 15:17:01
Genau. Sowie man Upscaling und Frame Generation ja anfangs auch nicht brauchte. Was der Bauer nicht kennt....

Mach was du willst. Ich hol mir das!

dargo
2025-12-23, 15:46:35
Genau. Sowie man Upscaling und Frame Generation ja anfangs auch nicht brauchte. Was der Bauer nicht kennt....

Wie lange hat es nochmal gedauert bis DLSS überzeugte? 4 oder 6 Jahre? Je nachdem ob jemand DLSS3 oder erst DLSS4 als überzeugend einstuft. Zudem hatte niemand behauptet Frame Generation wäre grundsätzlich unbrauchbar. Wie oft denn noch? Frame Generation ist ein nettes Feature um ohnehin schon hohe fps nochmal anzuheben. Entscheidend ist hierbei die Höhe der Baseframes damit das überzeugt.

DrFreaK666
2025-12-23, 15:50:29
Genau. Sowie man Upscaling und Frame Generation ja anfangs auch nicht brauchte...

Brauchte ich am Commodore Plus 4 auch nicht. Oder was meinst du mit "anfangs"? Noch früher? :D

dargo
2025-12-23, 16:00:21
Habe ich nicht installiert aktuell. Ich habe stattdessen AC: Shadows.
Schade... ich ging speziell auf GoT ein weil ich dort mit bereits 100fps 21ms bekomme, und das bei einem 3rd-person Spiel. Das Game fühlt sich auch super direkt an der Maus an. Aber AC: Shadows geht auch, einfach rein informativ... bitte fps und ms ohne FG posten.

Edit:
AC: Shadows ist aber auch ein guter Kandidat... mit 100fps bekomme ich 19ms. Ob die Metriken jetzt 100% glaubhaft sind sei mal dahin gestellt.

btw.
https://i.postimg.cc/wyjN0Nff/Assassin-s-Creed-Shadows-2025-12-23-19-11.jpg (https://postimg.cc/wyjN0Nff)

Ist auch etwas szenenabhängig, insofern nicht jedes einzelne ms auf die Goldwaage legen.

Ex3cut3r
2025-12-23, 17:28:28
100 FPS bei 4K und Performance Upscaling? Mit Max Settings? Dann muss die Radeon um einiges schneller sein, ich habe so gerade mal 70 FPS.

The_Invisible
2025-12-23, 17:34:22
Wie lange hat es nochmal gedauert bis DLSS überzeugte? 4 oder 6 Jahre? Je nachdem ob jemand DLSS3 oder erst DLSS4 als überzeugend einstuft. Zudem hatte niemand behauptet Frame Generation wäre grundsätzlich unbrauchbar. Wie oft denn noch? Frame Generation ist ein nettes Feature um ohnehin schon hohe fps nochmal anzuheben. Entscheidend ist hierbei die Höhe der Baseframes damit das überzeugt.

Dlss2-q war schon gut nutzbar und kam 2020, kannst du ja aber nicht wissen mit deiner nvidia Phobie. :)

dargo
2025-12-23, 17:41:40
100 FPS bei 4K und Performance Upscaling? Mit Max Settings? Dann muss die Radeon um einiges schneller sein, ich habe so gerade mal 70 FPS.
Das Thema war nicht wieviel fps eine Radeon schafft. Wenn du keine 100fps schaffst geh doch einfach mit der Auflösung runter bis du 100fps hast.

Dlss2-q war schon gut nutzbar...
Schon klar. :comfort2: Selbst DLSS3 hatte noch genug Probleme. Was kommt als Nächstes? DLSS1 war überzeugend? :lol: Und warum gerade Q? War P also doch nicht bei DLSS2 überzeugend? :rolleyes:

Lurtz
2025-12-23, 17:46:24
Ich sprach auch nicht von morgen, die mir vorschwebende Frame Generation gibt es ja auch noch nicht. Aber der Weg dahin ist doch recht klar, wenn es jetzt schon OLEDs mit über 500 Hertz und 4x MFG gibt.

dargo
2025-12-23, 17:49:53
Ich sprach auch nicht von morgen, die mir vorschwebende Frame Generation gibt es ja auch noch nicht. Aber der Weg dahin ist doch recht klar, wenn es jetzt schon OLEDs mit über 500 Hertz und 4x MFG gibt.
Schon mal selbst die 500Hz mit MFG am OLED probiert? Ich hatte nur Negatives von Troyan im Monitor-Thread darüber gelesen. Stichwort... VRR-Flicker.

Ex3cut3r
2025-12-23, 18:04:22
bitte fps und ms ohne FG posten.


Und jetzt? Was bringt es? 720p mit DLSS P und Low Settings.
https://s1.directupload.eu/images/251223/temp/tw8uc58w.jpg (https://www.directupload.eu/file/d/9142/tw8uc58w_jpg.htm)

dargo
2025-12-23, 18:18:20
Ich wollte wissen ob die Latenzwerte ähnlich rauskommen. Die Auflösung spielt dabei keine Rolle... ausschlaggebend ist hier die Framerate und die daraus resultierende Latenz. Übrigens wirst du da mit 100fps bei 21-22ms rauskommen

btw.
Schon etwas strange wie Doom im Vergleich rauskommt.

Lurtz
2025-12-23, 19:04:30
Schon mal selbst die 500Hz mit MFG am OLED probiert? Ich hatte nur Negatives von Troyan im Monitor-Thread darüber gelesen. Stichwort... VRR-Flicker.
Bei Troyan flackert jeder OLED immer, darüber hattest du dich auch schon mit ihm in den Haaren.

Mit 240 Hz MFG habe ich überhaukt kein Flackern gesehen.

dargo
2025-12-23, 19:14:49
240Hz sind keine 500Hz. Melde dich mal wenn du 500Hz getestet hast.

Bei Troyan flackert jeder OLED immer, darüber hattest du dich auch schon mit ihm in den Haaren.

Was soll das heißen? Er redet sich das ein?

aufkrawall
2025-12-23, 19:31:20
Wird halt von den realen on-screen Frame Times abhängen. Ist ja nicht so, dass OLED auch ohne FG oder MFG nie flackern würde. Wenn man solche Schwankungen in den Frame Times wegfiltern wollte, müsste man wahrscheinlich wieder die Latenz erhöhen...

Muskelbiber
2025-12-24, 02:38:56
1000fps betreiben sowieso nur competitive Spieler demnächst, in 1080p.

Troyan
2025-12-24, 09:53:10
Wird halt von den realen on-screen Frame Times abhängen. Ist ja nicht so, dass OLED auch ohne FG oder MFG nie flackern würde. Wenn man solche Schwankungen in den Frame Times wegfiltern wollte, müsste man wahrscheinlich wieder die Latenz erhöhen...

Und das macht Samsung mit deren VRR-Control. Führt zu höherer Latenz und tollem Mikrorucklern. ;D

Deswegen bin ich wieder zurück bei IPS mit MiniLED und 330Hz. Da funktioniert MFG ohne Probleme und vorallem ohne VRR-Flimmern.

Lurtz
2025-12-24, 12:13:32
Es gibt MiniLED mit 330 Hz?

Ex3cut3r
2025-12-24, 13:51:36
Wurde mich auch interessieren, welches Modell soll das sein?

dargo
2025-12-24, 13:59:26
Wahrscheinlich meint er den Dual-Mode Quatsch. :tongue:
https://www.reddit.com/r/Monitors/comments/1nxyte8/g7_ultra_new_4k_gaming_monitor_released_with_2000/?tl=de

aufkrawall
2025-12-24, 20:56:39
Und das macht Samsung mit deren VRR-Control. Führt zu höherer Latenz und tollem Mikrorucklern. ;D
Ich meinte auf der CPU/GPU-Seite, das würd zumindest kein Stuttering machen. Irgendwelche Hacks auf der Monitor-Seite sind natürlich Quatsch.

DrFreaK666
2025-12-25, 10:27:40
MFG ist die einzige Möglichkeit überhaupt hohe Frames zu generieren, dass man endlich an eine Schärfe kommt

Widersprechen sich MFG und Schärfe nicht gegenseitig?

The_Invisible
2025-12-25, 11:03:30
Widersprechen sich MFG und Schärfe nicht gegenseitig?

Nur wenn du in Diashow FPS Bereich spielst

Ex3cut3r
2025-12-25, 14:27:50
Widersprechen sich MFG und Schärfe nicht gegenseitig?

Wieso das? Weil FG ein kleines bisschen Unschärfe reinbringt? Dann nimm doch einfach Reshade mit CAS und schärf minimal nach. Echt unglaublich, dass man das ende 2025 im 3DCenter überhaupt noch erwähnen muss.

Troyan
2025-12-25, 14:30:25
Es gibt MiniLED mit 330 Hz?

Einen von Innocn: https://www.amazon.com/dp/B0FJ2H6LK4?ref=ppx_yo2ov_dt_b_fed_asin_title&th=1

Aus Amerika importiert.

IceKillFX57
2025-12-25, 18:40:02
Wieso das? Weil FG ein kleines bisschen Unschärfe reinbringt? Dann nimm doch einfach Reshade mit CAS und schärf minimal nach. Echt unglaublich, dass man das ende 2025 im 3DCenter überhaupt noch erwähnen muss.

Muss man das überhaupt? Ich schärfe bei den meisten Spielen direkt über den Treiber bzw. die NVIDIA App nach als Filter. Oder ist das andere besser?

aufkrawall
2025-12-25, 18:41:22
Muss man nicht, die FG-Artefakte sind auch eher lokales Garbling als großflächige Unschärfe.

Ex3cut3r
2025-12-25, 18:56:47
Muss man das überhaupt? Ich schärfe bei den meisten Spielen direkt über den Treiber bzw. die NVIDIA App nach als Filter. Oder ist das andere besser?
CAS ist besser als der Schärfe Filter der Nvidia App. Aber jeder wie er möchte.

robbitop
2025-12-25, 19:16:28
Zumal FG auch eher die (Bewegt)schärfe erhöht. Sofern der Monitor das von der Refreshrate abdecken kann ist das schon oft zu empfehlen. :)

Troyan
2025-12-25, 19:20:37
Bei LCDs und OLEDs, ja. Deswegen ist (M)FG auch nicht nur für einfach mehr Bilder, sondern unterbricht mit vernünftigem Framepacing auch den Sample&Hold Blur-Effekt unserer Wahrnehmung.

robbitop
2025-12-25, 19:26:07
So ist es. :)

DrFreaK666
2025-12-25, 20:07:59
Wieso das? Weil FG ein kleines bisschen Unschärfe reinbringt? Dann nimm doch einfach Reshade mit CAS und schärf minimal nach. Echt unglaublich, dass man das ende 2025 im 3DCenter überhaupt noch erwähnen muss.

In den Videos, die ich gesehen habe, waren die KI-Frames meist verwaschen oder fehlerhaft. Keine Ahnung wie das zu mehr Schärfe führen soll.
Bei echten Frames sehe ich das, aber wenn drei Frames per KI berechnet werden eher nicht.
Könntest auch mal aufhören so zu antworten, oder machst nun einen auf aufkrawall?

robbitop
2025-12-25, 20:30:47
Es bringt mehr Bewegtschärfe weil die image persistence kürzer ist welche zum hold type blur führt. Und zumindest bei 2x FG ist das generierte frame so kurz zu sehen, dass viele Imperfektionen kaum wahrgenommen werden.
Es gibt je nach Spiel auch mal sichtbare und störende Artefakte - aber zumeist ist es ein net positive.
Probiere es einfach mal aus. :) (das ist was anderes als Analysevideos mit zoom und slow down zu schauen)

aufkrawall
2025-12-25, 20:47:20
Könntest auch mal aufhören so zu antworten, oder machst nun einen auf aufkrawall?
Solltest du vielleicht auch mal machen, anstatt immer wieder deine Ahnungslosigkeit etwa bez. Hold-Type-Blur zur Schau zu stellen. Weil, wenn man keine Ahnung hat, und so...

Ex3cut3r
2025-12-26, 14:43:03
In den Videos, die ich gesehen habe, waren die KI-Frames meist verwaschen oder fehlerhaft.

Ah ja. Genau so wird es sein.

Hier ein Video von mir mit MFG, hätte ich das nicht gesagt, hätte jeder gedacht das sind native Frames. Aber was weiß ich schon, ich spiele ja nur jedes AAA Game mit MFG. Ich glaube, viele verwechseln Ihre LCD Artefakte wie schlieren und Co. mit MFG Artefakten.

WpvPLUixNmI

dargo
2025-12-26, 16:33:04
Ah ja. Genau so wird es sein.

Ist auch so. In der Praxis fällt es vielen kaum auf, in Zeitlupe und Vergrößerung auf jeden Fall.
jw00aZHC1YQ

Auch Upscaler sind noch lange nicht perfekt, was hier in diesem Forum gerne als solches verkauft wird. Insbesondere wenn es von Nvidia kommt, nur Lobhudeleien overhype.

Blase
2025-12-26, 16:50:57
Weiß nicht, wer hier in den Foren so tut, als wäre das Feature perfekt. Ein weiteres Werkzeug im Werkzeugkasten, nicht mehr und nicht weniger.

Aber wenn man schon in Zeitlupe schalten muss, um die Fehler offensichtlich zu machen, dann ist es ja per se keine schlechte Sache. Wenn es also umgekehrt im realen Spielfluss kaum bis gar nicht auffällt, hat es seine Schuldigkeit doch getan. Aber ich sage nicht, dass das immer so ist. Muss man sich halt anschauen bzw. in verschiedenen Titeln testen. Ich lasse FG weg wo ich kann. Aber jüngst in Hogwarts hat es mir gute Dienste geleistet...

MfG Blase

Daredevil
2025-12-26, 17:04:36
Aber wenn man schon in Zeitlupe schalten muss, um die Fehler offensichtlich zu machen, dann ist es ja per se keine schlechte Sache. Wenn es also umgekehrt im realen Spielfluss kaum bis gar nicht auffällt, hat es seine Schuldigkeit doch getan.
Jup, das ist schon ein guter Punkt. Imho kommts auch ein wenig auf die Auflösung an und die Größe des Screens, wie das Endergebnis ist. Das Ex3 bei seinem Doom Gameplay nach 5 weißen Monster Energy Drinks kein Ghosting sieht ist relativ klar bei 200 cpm, wenn dargo in seinen eher lahmeren 3rd View Shootern um die Ecke kriecht, sieht man das in einem Kameraschwenk sicherlich eher.

Wenn ich mit Speed durch nen Diablo 4 Dungeon baller sehe ich nichts vom FG, in der Stadt wo ich langsamer unterwegs bin schon.
Oder anders gesagt: FG erzeugt keine Fehler im Bild, solange man sie nicht bemerkt. ;D

Und vergesst nicht Leute, die Bar ist extrem niedrig. Es gibt Leute die zocken Red Dead Redemption mit 30fps auf einer Konsole und empfinden das als "flüssig" und bermerken nicht mal, dass sie die "Frame Generation" ihres Fernsehers anhaben, was den Input Lag in die Hölle treibt. Für die ist FG und MFG pure Magie.

robbitop
2025-12-26, 17:08:32
FG ist IMO was was man nicht über ein Video erlernen kann sondern man muss es selbst in einem Spiel ein und ausschalten und selbst erleben. Wie dann bspw aus zB 70 fps ~120 fps werden uns sehen wie es flüssiger und bewegtschärfer wird (wenn man den Monitor dafür hat und ein Spiel mit etwas Dynamik zockt).
Ich will es nicht mehr missen. Allerdings nur wenn das framepacing passt, eine gut genuge Mindest fps und Mindestlag da ist und wie gesagt der Monitor es hergibt.

dargo
2025-12-26, 17:50:44
Weiß nicht, wer hier in den Foren so tut, als wäre das Feature perfekt. Ein weiteres Werkzeug im Werkzeugkasten, nicht mehr und nicht weniger.

Aber wenn man schon in Zeitlupe schalten muss, um die Fehler offensichtlich zu machen, dann ist es ja per se keine schlechte Sache.
Hat auch niemand behauptet. Die Frage ist immer wie genau man nach Artefakten sucht. ;) Ich persönlich finde große Zooms und Zeitlupen zwar auch etwas übertrieben, das war aber nicht das Thema. Das kann wieder jemand anders sehen. Bei der BQ Beurteilung von Upscaling wird auch gerne nach dem Haar in der Suppe mit starken Zooms gesucht.

Ex3cut3r
2025-12-26, 18:25:38
Jup, das ist schon ein guter Punkt. Imho kommts auch ein wenig auf die Auflösung an und die Größe des Screens, wie das Endergebnis ist. Das Ex3 bei seinem Doom Gameplay nach 5 weißen Monster Energy Drinks kein Ghosting sieht ist relativ klar bei 200 cpm, wenn dargo in seinen eher lahmeren 3rd View Shootern um die Ecke kriecht, sieht man das in einem Kameraschwenk sicherlich eher.

Wenn ich mit Speed durch nen Diablo 4 Dungeon baller sehe ich nichts vom FG, in der Stadt wo ich langsamer unterwegs bin schon.
Oder anders gesagt: FG erzeugt keine Fehler im Bild, solange man sie nicht bemerkt. ;D

Und vergesst nicht Leute, die Bar ist extrem niedrig. Es gibt Leute die zocken Red Dead Redemption mit 30fps auf einer Konsole und empfinden das als "flüssig" und bermerken nicht mal, dass sie die "Frame Generation" ihres Fernsehers anhaben, was den Input Lag in die Hölle treibt. Für die ist FG und MFG pure Magie.
;D

Jeder wie er mag, MFG ist der Hammer, lasse ich mir nicht von AMD Fanboys ausreden.

DrFreaK666
2025-12-26, 18:44:53
Solltest du vielleicht auch mal machen, anstatt immer wieder deine Ahnungslosigkeit etwa bez. Hold-Type-Blur zur Schau zu stellen. Weil, wenn man keine Ahnung hat, und so...

Wusste nicht, dass Foren nicht für Diskussionen verfügbar sind.
Wieder was gelernt :ugly:

x-force
2025-12-26, 20:25:24
Wusste nicht, dass Foren nicht für Diskussionen verfügbar sind.
Wieder was gelernt :ugly:

du hast doch schon den hinweis bekommen, dass du im monitorthread die antworten findest.

ein forum ist doch nicht dafür da, die geschichte dann nochmal wiederkäuen zu wollen, ohne etwas konstruktives beizutragen :wink:

Ex3cut3r
2025-12-26, 20:30:17
Ist auch so. In der Praxis fällt es vielen kaum auf, in Zeitlupe und Vergrößerung auf jeden Fall.
https://youtu.be/jw00aZHC1YQ

Auch Upscaler sind noch lange nicht perfekt, was hier in diesem Forum gerne als solches verkauft wird. Insbesondere wenn es von Nvidia kommt, nur Lobhudeleien overhype.

Kannst du dir sparen deine Kack Videos. Ich nutze DLSS Preset K Global per Inspector aktiviert. Was mir der YouTuber mit Preset J verkaufen will, kann mir mal den Buckel runterrutschen.

DrFreaK666
2025-12-26, 23:53:44
du hast doch schon den hinweis bekommen, dass du im monitorthread die antworten findest.

ein forum ist doch nicht dafür da, die geschichte dann nochmal wiederkäuen zu wollen, ohne etwas konstruktives beizutragen :wink:

Klar. Ich schau mal schnell welche der 23.000+ Kommentare die passenden sind :ugly:

x-force
2025-12-27, 03:13:41
Klar. Ich schau mal schnell welche der 23.000+ Kommentare die passenden sind :ugly:

du findest die antwort auf der ersten seite ;)

https://www.forum-3dcenter.org/vbulletin/search.php?searchid=20696772

DrFreaK666
2025-12-27, 11:09:23
du findest die antwort auf der ersten seite ;)

https://www.forum-3dcenter.org/vbulletin/search.php?searchid=20696772

Dein Link geht nicht, aber du meinst sicherlich diese Aussage
Mehr als 75hz braucht kein Mensch atm
:D

x-force
2025-12-27, 20:18:11
Dein Link geht nicht, aber du meinst sicherlich diese Aussage

:D

logisch... es braucht ja auch niemand mehr als 640kb speicher

anleitung für dummies:

1. https://www.forum-3dcenter.org/vbulletin/showthread.php?t=491007 <- hier klicken
2. auf "Thema durchsuchen" klicken
3. "mfg" eingeben und mit enter bestätigen
4. lesen
5. schlauer sein als vorher

DrFreaK666
2025-12-28, 11:14:24
logisch... es braucht ja auch niemand mehr als 640kb speicher

anleitung für dummies:

1. https://www.forum-3dcenter.org/vbulletin/showthread.php?t=491007 <- hier klicken
2. auf "Thema durchsuchen" klicken
3. "mfg" eingeben und mit enter bestätigen
4. lesen
5. schlauer sein als vorher

Ich weiß wie die Suche funktioniert.
Aber dein Link oben geht trotzdem nicht.
https://i.postimg.cc/XNsxyLhs/image.png (https://postimg.cc/hh7VkLKm)
Willst eine "anleitung für dummies"?

Und wenn du schreibst: "du findest die antwort auf der ersten seite"...
Auf der ersten Seite von 2010, findet man sicherlich kein Hinweis zu Frame Generation.

Und hör auf in den Keller zu gehen um zu lachen. :rolleyes:

Marodeur
2025-12-29, 12:37:25
Ich wollte jetzt mit der 5070ti mal eben FG testen und bin gleich drauf reingefallen. X4: Foundations im Sale geholt aber wenn man da einfach mal FG 2 (default) aktiviert hat man einen solch derben Input-Lag von gefühlt ner Sekunde, das war schon gruselig. Muss mich da als Noob auch erstmal reinfuchsen was da alles zu beachten ist. Wie andere Optionen einfach mal aktivieren ist schonmal nix. Muss da wohl die Max FPS aufs doppelte der eigentlichen FPS setzen.

Hakim
2025-12-29, 12:45:26
Wenn es angeboten wird Reflex aktivieren. Aber wenn die Eingabe so deutlich schlechter ist wird es wohl nicht viel helfen

robbitop
2025-12-29, 12:48:27
Ist Reflex nicht essentieller Bestandteil von DLSS-FG? Soweit ich weiss ist Reflex immer an wenn DLSS-FG an ist.
Man braucht aber gewisse Mindest fps damit es sich gut anfühlt IMO. Ein guter Startpunkt sind 120 fps mit 2x FG (also 60 echte fps). Zumindest mit Maus und Tastatur würde ich da nicht unbedingt drunter gehen. Dazu braucht es dann aber auch einen Monitor
mit wenigstens 120 Hz und idealerweise VRR. (ich persönlich würde sogar sagen gern 165+Hz für 2x FG).

dargo
2025-12-29, 12:56:10
Ich wollte jetzt mit der 5070ti mal eben FG testen und bin gleich drauf reingefallen. X4: Foundations im Sale geholt aber wenn man da einfach mal FG 2 (default) aktiviert hat man einen solch derben Input-Lag von gefühlt ner Sekunde, das war schon gruselig. Muss mich da als Noob auch erstmal reinfuchsen was da alles zu beachten ist. Wie andere Optionen einfach mal aktivieren ist schonmal nix. Muss da wohl die Max FPS aufs doppelte der eigentlichen FPS setzen.
Dabei soll doch FG der geilste shit sein... habe ich mir sagen lassen. ;) Spaß bei Seite... check mal deine Frames. Wahrscheinlich sind die viel zu niedrig wenn es sich so kacke anfühlt.

dildo4u
2025-12-29, 13:01:09
Das Game hat extrem schlechte Frametimes das löst Reflex nicht.
Du willst für FG 60fps als absolutes Minimum. (P1)

https://i.ibb.co/jkBsZJRH/Screenshot-20251229-130205-Samsung-Internet.jpg (https://ibb.co/b5qDRbJ7)

https://www.pcgameshardware.de/X4-Foundations-Spiel-61270/Specials/Timelines-DLC-Update-Vulkan-Tech-Test-Release-1449923/4/

robbitop
2025-12-29, 15:27:33
Das Game hat extrem schlechte Frametimes das löst Reflex nicht.
Du willst für FG 60fps als absolutes Minimum. (P1)

https://i.ibb.co/jkBsZJRH/Screenshot-20251229-130205-Samsung-Internet.jpg (https://ibb.co/b5qDRbJ7)

https://www.pcgameshardware.de/X4-Foundations-Spiel-61270/Specials/Timelines-DLC-Update-Vulkan-Tech-Test-Release-1449923/4/
Ich habe es jetzt schon mehrfach hier km Forum gesehen dass FG mit niedrigen input fps (oder niedrigen Ziel fps bzw relativ niedriger refreshrate) betrieben wird.
Mein Eindruck ist dass FG nicht von allen in der Intention verstanden wird wofür es gemacht wurde. (ich weiss dass du folgendes weisst -> ist eher für die Allgemeinheit) Nämlich nicht als Mittel um Spiele flüssig zu machen die es vorher nicht sind (shit in -> shit out) sondern um dank high refresh rate Displays die BQ zu steigern durch höhere Bewegtschärfe diech Reduktion des Holdtypeeffekts durch Erhöhung der fps.
Ein Spiel muss vorher bereits flüssig und sauber laufen. Also mit 2x FG sollten es IMO für eine gute (nicht mal hervorragende! sondern IMO nur gut) Erfahrung wenigstens 120 fps (inkludiert auch fps drops) sein damit die input fps wenigstens 60 fps sind. (ja das ist abhängig vom Spiel und vom Anspruch des Spielers und vom Eingabemedium - IMO ist das aber ein guter Daumenwert um damit zu starten). Im GPU Limit muss man berücksichtigen dass FG eine computational cost pro Frame hat. Je nach GPU und Auflösung sind das ein paar ms. Als grober Richtwert für viele Konfigurationen gilt grob: 80 fps ohne FG droppen auf 60 fps @ 120 fps mit 2x FG. Und deshalb ist es wichtig, dass das Spiel auch ohne FG flüssig ist und der PC nicht am Anschlag ist. Und es braucht dann auch unbedingt ein 120 Hz Monitor und idealerweise mit VRR weil es ansonsten schnell zu gestottere und tearing kommt.

Und ja es gibt sicher Spiel-Spieler-Inputdevice Kombinationen wo weniger auch ok ist. Aber für etwas mehr Anspruch würde ich sagen 60@120fps. Ich persönlich sage sogar 80@160 fps damit ich selbst zu 95% der Fälle einigermaßen zufrieden bin.
Man braucht also bei modernen Spielen schon doch noch ein gutes System. :)

Lurtz
2025-12-29, 16:19:43
Ist Reflex nicht essentieller Bestandteil von DLSS-FG? Soweit ich weiss ist Reflex immer an wenn DLSS-FG an ist.

Scheint genug fehlerhafte Implementierungen zu geben wodurch es nicht richtig greift. Selbst bei hochgelobten Ports wie Doom.

Marodeur
2025-12-29, 16:38:29
Hab ich beim Testspiel also grad auch noch daneben gegriffen. Murphy lässt grüßen….

Lurtz
2026-01-08, 13:20:31
Tja scheiße, meine 5070 Ti produziert definitiv auf dem Desktop wenn Spiele idlen Treibercrashes, auch @Stock bzw nur mit reduziertem PT. Bei Indiana Jones zB mindestens einmal pro Stunde. Ingame bisher nichts festgestellt.

Keine Ahnung was ich jetzt damit mache. Mit dem schwer zu reproduzierbaren Verhalten passiert doch eh nichts wenn ich die einschicke. Prinzipiell wäre bis März ja noch NBB zuständig, aber die werden die vermutlich auch nur bei Asus einschicken...

Der Stecker ist völlig intakt, jeder der 8-Pins hat einen eigenen Strang am Netzteil.

Döner-Ente
2026-01-08, 13:26:43
Man braucht also bei modernen Spielen schon doch noch ein gutes System. :)


Sicher. FG ist aber, wenn man vorher schon so gedrillt war, dass man seine Spiele so eingestellt hat, dass sie (je nach Genre und individuellem Schwuppdizitätsgefühl des jeweiligen Spiels) 50-80 Fps liefern, quasi ein geschenkter Gaul, der für ein paar wenige echte Fps weniger dann das doppelte an sichtbaren Fps liefert, mit denen man endlich die 144 Hz vom Monitor auch bei aktuellen Spielen mal ausnutzt und die, unabhängig vom fühlbaren Input Lag, für ein deutliches Mehr an insgesamt wahrgenommener Schwuppdizität sorgen.

Lehdro
2026-01-08, 14:05:54
Tja scheiße, meine 5070 Ti produziert definitiv auf dem Desktop wenn Spiele idlen Treibercrashes, auch @Stock bzw nur mit reduziertem PT. Bei Indiana Jones zB mindestens einmal pro Stunde. Ingame bisher nichts festgestellt.
Treibercrashes im idle: Betreibst du CPU oder RAM OC? Wenn ja, machs mal aus und schau ob die Fehler verschwinden.

Wenn nein: GPU in anderem System testen.

Lurtz
2026-01-08, 14:27:33
Würde anhand der Symptome zumindest mehr Sinn ergeben, wenn es daher käme.

Ich bin Ende August vom 12500 auf einen 14600K gewechselt. Der RAM läuft weiterhin im XMP-Profil mit 3200 MHz.
Bei der CPU verwende ich eine der Spannungsabsenker (Load Line irgendwas, da braucht man bei Raptor Lake K-CPUs ja eine halbe Doktorarbeit für). Kann schon sein, dass da was instabil ist. Dann stelle ich erst mal die CPU auf Stock um das auszuschließen, danke.

Zugriff auf einen anderen halbwegs aktuellen PC habe ich nicht.

Was mir noch aufgefallen ist: Beim Crash kommen immer ein paar "Pieptöne" aus dem Lautsprecher. Keine wie früher vom PC-Speaker, schon ganz "normale". Mal mehr, mal weniger. Kommt das vom Treiberreset oder stürzt da noch was anderes mit ab?

Lehdro
2026-01-08, 14:42:53
Was mir noch aufgefallen ist: Beim Crash kommen immer ein paar "Pieptöne" aus dem Lautsprecher. Keine wie früher vom PC-Speaker, schon ganz "normale". Mal mehr, mal weniger. Kommt das vom Treiberreset oder stürzt da noch was anderes mit ab?
Siehst du außerhalb des NV Treibercrashes irgendetwas anderes in der Windows Ereignisanzeige/WHEA Fehler? Vielleicht reißt diese Instabilität auch andere Sachen mit und nur der Treiber ist für dich "sichtbar"?

Lurtz
2026-01-08, 14:45:28
In den Events steht nur nvlddmkm.

UCodeReset TDR occurred on GPUID:100
Resetting TDR occurred on GPUID:100
Reset TDR occurred on GPUID:100
Restarting TDR occurred on GPUID:100

aufkrawall
2026-01-08, 14:46:58
Was mir noch aufgefallen ist: Beim Crash kommen immer ein paar "Pieptöne" aus dem Lautsprecher. Keine wie früher vom PC-Speaker, schon ganz "normale". Mal mehr, mal weniger. Kommt das vom Treiberreset oder stürzt da noch was anderes mit ab?
Vermutlich Windows Timeout-Erkennung o.ä. Das hab ich selbst, wenn nach der Anmeldung der Treiber/Windows vermutlich die EDID ausliest und ich dabei "zu viel" die Maus bewege, die dann kurz hängt. ;D

Lurtz
2026-01-08, 14:47:20
Ja genau, die ruckelt zwischendurch ordentlich.

Lehdro
2026-01-08, 14:47:44
In den Events steht nur nvlddmkm.



Schade, dann endet die Spur da. Beobachte mal ob die Fehler verschwinden wenn alles @stock ist, das wäre derzeit mein einziger Ansatz.

MiamiNice
2026-01-08, 16:49:38
In den Events steht nur nvlddmkm.

UCodeReset TDR occurred on GPUID:100
Resetting TDR occurred on GPUID:100
Reset TDR occurred on GPUID:100
Restarting TDR occurred on GPUID:100

Hast du mehrere Monitore und/oder MPO aktiv?
Falls ja, beides mal ändern und testen.

€: Falls PCIE 5 aktiv, stell mal runter auf 3 oder 4 und teste nochmals.

Exxtreme
2026-01-08, 17:03:11
Auch ein schlecht eingesteckter Stromstecker auf der Grafikkarte kann sowas auslösen. Und ganz übel sind PCIe-Riser-Kabel.

Lurtz
2026-01-08, 17:10:39
Ein Monitor.
MPO ist aktiv.
PCIe 4.0. Keine Riser-Kabel oder sowas.
Stromstecker habe ich jetzt nochmal überprüft, da sitzt alles bombenfest und keinerlei unschöne Dinge zu erkennen.

Lurtz
2026-01-08, 18:00:37
Und nächster Reset, ohne CPU Undervolting. Scheiße.

aufkrawall
2026-01-08, 18:05:16
Ist ASPM im Bios komplett aus?

Lurtz
2026-01-08, 18:08:35
Wie stellt man MPO aus?
Zeigt mir damit immer noch 4 Planes an: https://nvidia.custhelp.com/app/answers/detail/a_id/5157/~/after-updating-to-nvidia-game-ready-driver-461.09-or-newer%2C-some-desktop-apps

Kann mir aber auch nicht vorstellen, dass MPO Driver-Resets verursacht.

Lurtz
2026-01-08, 18:09:05
Ist ASPM im Bios komplett aus?
Ich denke das ist es per Default? Hab da nie was geändert.

Native ASPM und alles andere was ich damit gefunden habe ist disabled.

Vielleicht lasse ich nochmal DDU laufen, ich habe den Treiber ja vom 591er downgegradet. Trat aber auch vorher schon sporadisch auf, Indiana Jones scheint es nur sehr zuverlässig auszulösen.

MiamiNice
2026-01-08, 22:29:17
War von mir nur so ein "am Strohhalm ziehen", die Basics waren ja schon durch.

https://www.reddit.com/r/Amd/comments/yvyqc7/disabling_multiplane_overlay_mpo_fixed_all/

Passiert das unter einer neuen Installation von WIndows auch?
Hast ne 2. SSD liegen?

Lurtz
2026-01-09, 08:50:54
Kann alles mögliche sein. Mir fällt auch auf, dass der ganze Desktop bei Indi total zäh wird und immer wieder hängt. Der VRAM ist bei dem Spiel bekanntermaßen halt auch bis zum Anschlag voll.

Am Ende wären mir ein paar sporadische Hänger erstmal egal, wenns eben nicht auf einen Hardwaredefekt hindeutet...

ianm
2026-01-10, 01:36:08
Ich hatte Indi vor sechs Wochen installiert und war erstmal im Urlaub. Gestern den neuesten Treiber installiert und geschaut, ob ich das mit meinem System nachstellen kann.

Bin ganz am Anfang im Dschungel, hab noch gar nicht gespielt, aber gestern beim ersten Versuch hängt sich das Spiel erstmal auf, wenn ich auf den Desktop möchte. Per Taskmanager den Prozess beenden ging noch. Kann mich nicht erinnern, das mit dem vorherigen Treiber 581.80 gehabt zu haben. Müsste aber weiter testen. UV und scharfe RAM Timings liefen.

Wenn ich was testen soll, könnte ich das machen. Neuer Treiber, neues Verhalten hier.

Lurtz
2026-01-10, 10:15:23
Danke für den Eindruck. Es ist schon generell nicht das stabilste Spiel, würde mich nicht wundern, wenn das beim Idlen irgendwas auslöst. Wobei das damals zum Release nicht der Fall war, aber da hatte ich auch noch die 4070 und natürlich viel ältere Treiber.

Ich bin wegen des SDR/HDR-Bugs aber gerade auch noch beim 581er-Treiber.

Lurtz
2026-02-01, 21:33:46
Meh, mit dem 591er-Treiber jetzt auch zwei TDRs auf dem Desktop (Firefox, Youtube-Video läuft im Hintergrund). Kommt mir alles spanisch vor, derartige Instabilität hatte ich noch nie.

Laut LatencyMon erzeugt nvlddmkm.sys erhöhte Latenz, aber das hatte ich schon mit anderen PCs immer.

Kann am Ende zig Ursachen haben, aber eben auch schlichtweg die Karte defekt sein. Vielleicht bin ich da zu negativ auf die berüchtigte Asus-RMA eingestellt, aber ich kann mir nicht vorstellen, dass bei der Fehlerbeschreibung viel bei rumkommt.

Im Zweifel 5070 zum Übergang bestellen und die RMA einfach versuchen? Die 5070 Ti ist ja unbezahlbar mittlerweile.