PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 9070 & 9070 XT Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 [12]

Dr. Lars Sahmströhm
2026-01-13, 21:28:41
https://www.techspot.com/review/3015-amd-radeon-9070-xt-roundup/

Die ASRock Steel und die Gigabyte schneiden z.B da eher schlecht ab, und hier wurden beide vorhin empfohlen
Den Test hatte ich auch gelesen und mich trotzdem für die Gigabyte entschieden. Sie hat die höchste GPU und Hotspot Temps in der Skala, aber sie läuft auch ca. 200Mhz höher als andere Modelle, die in dem gleichen Diagramm stehen. Würde man das bereinigen, wäre sie wohl eher im Mittelfeld, als auf dem Letzten. Ich weiß auch nicht in welchem Backofen sie die betrieben haben, dass sie 89° Hotspot erreicht bei gerade einmal 60° GPU. Ich komme selbst mit OC auf 360W nicht über 74° HOT@61° GPU und das Wichtigste, nämlich die hervorragende RAM-Kühlung haben sie gar nicht gemessen (65° Max) [edit: Doch, haben sie, da gehört sie zu den Besten]. Evtl. haben sie eine defekte Grafikkarte getestet, bei der der Kühler nicht richtig saß.

Wahr ist, sie hat etwas kleiner dimensionierte Lüfter, die etwas mehr RPM brauchen. Für ein super Silent Setup wo der PC direkt neben einem stehen muss und gleichzeitig die Karte ausgemaxxt werden soll, würde ich was anderes nehmen. Die XTX Mercury ist von dem was ich gelesen habe, als Gesamtpaket wahrscheinlich die am besten ausbalancierte 9070XT. Sie ist aber auch sehr teuer.

horn 12
2026-01-13, 21:36:02
Schau bitte auf der Verpackung Rev. 1.0 oder was steht dort genau
und welche Seriennummer hast bei deiner Gigabyte Gaming OC 9070,- steht auch auf der Verpackung drauf
25 xx xx

Jahr und dahinter steht die Kalenderwoche
Vielleicht hast wirklich eine der Letzten Revision und ziemlich NEU der Fertigung 2547 oder so ähnlich

Dr. Lars Sahmströhm
2026-01-13, 23:10:39
Jahr und dahinter steht die Kalenderwoche
Vielleicht hast wirklich eine der Letzten Revision und ziemlich NEU der Fertigung 2547 oder so ähnlich
2542 beginnt meine SN. Rev. 1.0. steht auf dem kleinen Aufkleber auf dem PCB. Keine Ahnung ob da schon was geändert wurde, wahrscheinlich eher nicht, sonst wäre es ja nicht Rev. 1.0. Das ist mein Setup. Es ist gut, aber sicher nicht überragend gekühlt in dem alten Define R5 Gehäuse mit 2x ArcticP14 Intakes. Meine Raumtemp beträgt ca. 21 Grad +/-1.

https://i.postimg.cc/dVQLRPpm/20260111-015353.jpg
https://i.postimg.cc/52965dTD/20260111-015419.jpg
https://i.postimg.cc/Vksd9Qpp/20260113-004445.jpg
edit:
Ich habe gemerkt, dass der untere P14 Intake je nach Geschwindigkeit, bzw. wenn er >1200RPM läuft, durchaus einen Unterschied von ca. 3-4° vor allem bei der Hotspot Temp macht.

Dant3
2026-01-14, 10:52:08
Ich habe mit der 9070 XT noch nicht viel gemacht, aber bei etwas arbeiten am Desktop und Audio Ausgabe über die Boxen von meinem Monitor stolpere ich doch direkt über folgendes Problem ->

https://pcforum.amd.com/s/question/0D5KZ00000sFPnF0AW/9070-xt-hdmi-audio-output-is-producing-noise-artifacts-sputtering-crackling-popping-noises-while-idle-seeking-a-driver-update-to-correct

Über die Interne Soundkarte ist es nicht vorhanden, auch hört es auf, wenn wie dort beschrieben der GPU RAM nicht in tiefen Idle Modis verweilt.

AMD und HDMI Sound ist echt eine Seuche. Mit RDNA2/3 hatte ich auch nur Probleme in Kombination mit meinem AVR und Atmos. Völlig random gab es da auch Sound knacken. In einem Spiel war es vorhanden, im anderen nicht.
Der verlinkte Thread ist ein halbes Jahr alt und immer noch kein richtiger fix ... puh.
Die Windows Soundeinstellungen im Hintergrund (nicht minimiert) offen zu lassen unterbindet das knacken zumindest im Moment bei mir.

Spring
2026-01-14, 13:20:25
Ich habe mit der 9070 XT noch nicht viel gemacht, aber bei etwas arbeiten am Desktop und Audio Ausgabe über die Boxen von meinem Monitor stolpere ich doch direkt über folgendes Problem ->

https://pcforum.amd.com/s/question/0D5KZ00000sFPnF0AW/9070-xt-hdmi-audio-output-is-producing-noise-artifacts-sputtering-crackling-popping-noises-while-idle-seeking-a-driver-update-to-correct

Über die Interne Soundkarte ist es nicht vorhanden, auch hört es auf, wenn wie dort beschrieben der GPU RAM nicht in tiefen Idle Modis verweilt.

AMD und HDMI Sound ist echt eine Seuche. Mit RDNA2/3 hatte ich auch nur Probleme in Kombination mit meinem AVR und Atmos. Völlig random gab es da auch Sound knacken. In einem Spiel war es vorhanden, im anderen nicht.
Der verlinkte Thread ist ein halbes Jahr alt und immer noch kein richtiger fix ... puh.
Die Windows Soundeinstellungen im Hintergrund (nicht minimiert) offen zu lassen unterbindet das knacken zumindest im Moment bei mir.

Du hast den Workaround bereits in Nutzung.

Mich würde interessieren, ob der exklusive Modus die Störungen unterbindet, also exklusiver Modus (WASAPI) im Media Player oder z.B. Tidal aktivieren und dann Wiedergabe. Die Störungen sollten nicht mehr vorhanden sein.

Der Windows Mixer ist eh scheisse (daher WASAPI oder ASIO), aber dein Problem ist wohl ein realer AMD Software bug.

Dant3
2026-01-14, 14:02:28
Der exklusive Modus war auf dem Monitor (Audio Wiedergabe) wie auch auf den Boxen schon von Haus aktiviert, sofern du dies meinst.
Selbst wenn es im Media Player nicht vorkommen würde, auch Sound über den Browser in Twitch oder Youtube kratzt fröhlich umher.

Den AMD Audio Treiber habe ich testweise auch runter geschmissen und den basic von Windows installieren lassen, ändert aber auch nichts. Im Endeffekt ist das Problem schon über ein halbes Jahr bekannt und auch von AMD anerkannt, da sie es selber reproduzieren aber noch nicht fixen können.
Denke nicht das man da selber nur irgendwo einen Haken setzen muss und es ist behoben.

Spring
2026-01-14, 14:34:04
Der exklusive Modus war auf dem Monitor (Audio Wiedergabe) wie auch auf den Boxen schon von Haus aktiviert, sofern du dies meinst.
Selbst wenn es im Media Player nicht vorkommen würde, auch Sound über den Browser in Twitch oder Youtube kratzt fröhlich umher.

Den AMD Audio Treiber habe ich testweise auch runter geschmissen und den basic von Windows installieren lassen, ändert aber auch nichts. Im Endeffekt ist das Problem schon über ein halbes Jahr bekannt und auch von AMD anerkannt, da sie es selber reproduzieren aber noch nicht fixen können.
Denke nicht das man da selber nur irgendwo einen Haken setzen muss und es ist behoben.

WASAPI muss zwingend in der jeweiligen Anwendung aktiviert werden, global in Windows reicht nicht!

Pinhead_Xp
2026-01-14, 20:38:11
Ich habe mit der 9070 XT noch nicht viel gemacht, aber bei etwas arbeiten am Desktop und Audio Ausgabe über die Boxen von meinem Monitor stolpere ich doch direkt über folgendes Problem ->

https://pcforum.amd.com/s/question/0D5KZ00000sFPnF0AW/9070-xt-hdmi-audio-output-is-producing-noise-artifacts-sputtering-crackling-popping-noises-while-idle-seeking-a-driver-update-to-correct

Über die Interne Soundkarte ist es nicht vorhanden, auch hört es auf, wenn wie dort beschrieben der GPU RAM nicht in tiefen Idle Modis verweilt.

AMD und HDMI Sound ist echt eine Seuche. Mit RDNA2/3 hatte ich auch nur Probleme in Kombination mit meinem AVR und Atmos. Völlig random gab es da auch Sound knacken. In einem Spiel war es vorhanden, im anderen nicht.
Der verlinkte Thread ist ein halbes Jahr alt und immer noch kein richtiger fix ... puh.
Die Windows Soundeinstellungen im Hintergrund (nicht minimiert) offen zu lassen unterbindet das knacken zumindest im Moment bei mir.
Hatte das Problem vor paar Monaten auch. Bei mir war es die Soundausgabe via Hdmi an meinem Denon AV Receiver. Sobald bissl Last auf der Grafikkarte lag (zb. bei Spotify noch der Videostream rechts mit lief) taktet der Chip nicht mehr auf "0" MhZ sondern bleibt etwas höher. Dann sind die Störgeräusche weg.

Hab mir damals damit geholfen, den ULPS (Ultra Low Power State oder so) zu deaktivieren.

Hatte es später mit neuem Treiber und Windowsneuinstallation nicht mehr weiter verfolgt. Hatte das Gefühl das es dann nicht mehr aufgetreten ist bzw. bei Deaktivierung des ULPS es aufeinmal Probleme bei Videowiedergabe bei MKVs gekommen ist.

Vielleicht hilft dir die Info als Ansatz.

Dr. Lars Sahmströhm
2026-01-15, 11:54:39
Der Benchparkour zur Auslotung der Gigabyte 9070 XT Gaming OC 16G ist erfolgt.

Time Spy Extreme 2.16 (4K) Standart ohne Intro:
Auslotung RAM-OC (Absteigend)
-140mV / 2652Mhz RAM / -15%PT(280W) = 14781 Punkte
-140mV / 2662Mhz RAM / -15%PT(280W) = 14797 Punkte (+10Mhz RAM = +16)
-140mV / 2672Mhz RAM / -15%PT(280W) = 14816 Punkte (+10Mhz RAM = +19)
-140mV / 2684Mhz RAM / -15%PT(280W) = 14831 Punkte (+12Mhz RAM = +15)
-140mV / 2694Mhz RAM / -15%PT(280W) = 14866 Punkte (+10Mhz RAM = +35) *Sweepspot?*
-140mV / 2704Mhz RAM / -15%PT(280W) = 14887 Punkte (+10Mhz RAM = +27) *Sweepspot?*
-140mV / 2714Mhz RAM / -15%PT(280W) = 14807 Punkte (+10Mhz RAM = -80!)
-140mV / 2724Mhz RAM / -15%PT(280W) = 14820 Punkte (+10Mhz RAM = -67!)
-140mV / 2734Mhz RAM / -15%PT(280W) = 14830 Punkte (+10Mhz RAM = -57!)
-140mV / 2744Mhz RAM / -15%PT(280W) = 14846 Punkte (+10Mhz RAM = -41!)
-140mV / 2754Mhz RAM / -15%PT(280W) = 14858 Punkte (+10Mhz RAM = -29!)

-100mV / 2652Mhz RAM / -15%PT(280W) = 14554 Punkte
-100mV / 2684Mhz RAM / -15%PT(280W) = 14588 Punkte (+32Mhz RAM = +34)
-100mV / 2694Mhz RAM / -15%PT(280W) = 14610 Punkte (+10Mhz RAM = +22) **Sweepspot**
-100mV / 2704Mhz RAM / -15%PT(280W) = 14632 Punkte (+10Mhz RAM = +22) **Sweepspot**
-100mV / 2714Mhz RAM / -15%PT(280W) = 14528 Punkte (+10Mhz RAM = -104!)
Gefunden: 2704Mhz RAM Sweepspot (Real: 2690Mhz)
Suche nach UV-Sweepspot:
-160mV / 2704Mhz RAM / -15%PT(280W) = *CRASH*

-140mV +5% / 2704Mhz RAM / -15%PT(280W) = 14838 Punkte (-49!) *Limit erreicht*
-140mV / 2704Mhz RAM / -15%PT(280W) = 14887 Punkte
-140mV -5% / 2704Mhz RAM / -15%PT(280W) = 14853 Punkte (-34)

-120mV +5% / 2704Mhz RAM / -15%PT(280W) = 14719 Punkte (-13!) *Defizitär werdend*
-120mV / 2704Mhz RAM / -15%PT(280W) = 14732 Punkte
-120mV -5% / 2704Mhz RAM / -15%PT(280W) = 14712 Punkte (-20)

-110mV +5% / 2704Mhz RAM / -15%PT(280W) = 14712 Punkte (+23)
-110mV / 2704Mhz RAM / -15%PT(280W) = 14689 Punkte
-110mV -5% / 2704Mhz RAM / -15%PT(280W) = 14726 Punkte (+37) **SweepSpot** (All Stable?)
-110mV -10% / 2704Mhz RAM / -15%PT(280W) = 14700 Punkte (+11)

-100mV +5% / 2704Mhz RAM / -15%PT(280W) = 14642 Punkte (+10)
-100mV / 2704Mhz RAM / -15%PT(280W) = 14632 Punkte
-100mV -5% / 2704Mhz RAM / -15%PT(280W) = 14617 Punkte (-15) *Evtl. Best Stable*

- 90mV +5% / 2704Mhz RAM / -15%PT(280W) = 14591 Punkte (+32)
- 90mV / 2704Mhz RAM / -15%PT(280W) = 14559 Punkte
- 90mV -5% / 2704Mhz RAM / -15%PT(280W) = 14561 Punkte (+2 ) *Safe Best Stable*

- 80mV +10% / 2704Mhz RAM / -15%PT(280W) = 14531 Punkte (+27)
- 80mV +5% / 2704Mhz RAM / -15%PT(280W) = 14518 Punkte (+14)
- 80mV / 2704Mhz RAM / -15%PT(280W) = 14504 Punkte
- 80mV -5% / 2704Mhz RAM / -15%PT(280W) = 14518 Punkte (+14)

Gefunden: -110mV -5%
Refinement Sweepspot:
[-110mV -5% / 2704Mhz RAM / -24%PT(250W) = 14362 Punkte]*FAN Curve tuned (-378 | -30W) *KING* (2,5% Verlust | 11,0% gespart)
[-110mV -5% / 2704Mhz RAM / -22%PT(257W) = 14436 Punkte]*FAN Curve tuned (-304 | -23W) (2,0% Verlust | 8,0% gespart)
[-110mV -5% / 2704Mhz RAM / -20%PT(264W) = 14536 Punkte]*FAN Curve tuned (-204 | -16W)
[-110mV -5% / 2704Mhz RAM / -18%PT(270W) = 14592 Punkte]*FAN Curve tuned (-148 | -10W) (1,0% Verlust | 3,5% gespart)
[-110mV -5% / 2704Mhz RAM / -17%PT(274W) = 14627 Punkte]*FAN Curve tuned (-113 | -6W)
[-110mV -5% / 2704Mhz RAM / -16%PT(277W) = 14680 Punkte]*FAN Curve tuned (-60 | -3W)
[-110mV -5% / 2704Mhz RAM / -15%PT(280W) = 14740 Punkte]*FAN Curve tuned
[-110mV -5% / 2704Mhz RAM / -10%PT(297W) = 14880 Punkte]*FAN Curve tuned (+140 | +17W) (1,0% Gewinn | 6,0% Kosten!)
Gefunden: -24%PT als Effizienz-KING
Refinement KING:
[-110mV +5% / 2704Mhz RAM / -24%PT(250W) = 14355 Punkte]
[-110mV / 2704Mhz RAM / -24%PT(250W) = 14352 Punkte]
[-110mV -5% / 2704Mhz RAM / -24%PT(250W) = 14362* Punkte] *KING*
[-100mV +10% / 2704Mhz RAM / -24%PT(250W) = 14292 Punkte]
KING@Stock PT:
[-110mV -5% / 2704Mhz RAM / (330W) = 15096 Punkte] (5,0% Gewinn | 25,0% Kosten!)
Stock@Tuning=Standart:
[0mV / 2505Mhz RAM / (330W) = 14362* Punkte] (IDENTISCH | 25,0% Kosten!)

Fazit: 25% oder 80W Ersparnis für dasselbe Ergebnis, das die Karte im Auslieferungszustand und Auto-Modus erreicht, das ist schon enorm.
Im Prinzip meine gesamte Raumbeleuchtung und den Verbrauch des Monitors obendrauf, die ich einspare, nur durch ein paar Klicks.
Von den hervorragenden Temperaturen (48°GPU|64°HOT|62°RAM@KING) ganz zu schweigen.

OgrEGT
2026-01-15, 14:13:26
Den Erfahrungen der User hier sind -100mV nicht in allen Games stabil... am Ende sind es so um -30/-40mV... gerade bei UV empfiehlt es sich auch den maxGPU Takt zu begrenzen da die Karte sonst zu hoch boosten will was auch instabil werden kann...

dargo
2026-01-15, 15:01:55
Es wurde schon mehrmals in diesem Thread dargelegt, dass dies nicht stimmt da die V/F-Kurve recht linear verläuft. Rein aus Effizienzsicht ist natürlich dennoch ein Taktoffset sehr sinnvoll. Gerade dort oben wird unheimlich viel Effizienz ohne Offset verpulvert.

Hochzeit2
2026-01-15, 19:13:52
am Ende sind es so um -30/-40mV... gerade bei UV empfiehlt es sich auch den maxGPU Takt zu begrenzen da die Karte sonst zu hoch boosten will was auch instabil werden kann...

Nenn mal 5 Games wo nur die -30/-40mV rauskommen!

Bei der 90XX und schon bei der 7XXX steigt häufig mit UV der GPU-Takt. (Bei geringerem Verbrauch / Wärmeentwicklung) Da begrenzt du den Takt definitv nicht generell.

SpoOokY1983
2026-01-16, 07:57:33
Ich habe meine 4070 ti auf Grund eines Umstiegs auf Linux verkauft, meine XFX Swift 9070 XT ist auf dem Weg. Bin sehr gespannt auf die Tuningergebnisse und die allgemeine Performance. Nur auf FSR habe ich so gar keine Lust. Einen Tod muss man leider sterben. Die DX12 Performance von Nvidia unter Linux ist leider unterirdisch.

OgrEGT
2026-01-16, 08:03:51
Nenn mal 5 Games wo nur die -30/-40mV rauskommen!

Bei der 90XX und schon bei der 7XXX steigt häufig mit UV der GPU-Takt. (Bei geringerem Verbrauch / Wärmeentwicklung) Da begrenzt du den Takt definitv nicht generell.
Die Erfahrungen der User sind in diesem Thread zu finden...
dargo hat N48 ausgiebig getestet... bei Ratchet und Clank musste er auf -45mV runter... vielleicht sind es nicht -30/40 sondern eher -40-50mV... aber sicher sind nicht -100mV und darunter in allen Spielen stabil...
Klar wird der Takt nicht fix auf einen konstanten Wert festgelegt sondern auf eine Obergrenze... Diese liegt dann um den eingestellten Wert unterhalb des Referenzwertes von i.d.R. 3450MHz...

GerryB
2026-01-16, 08:51:27
Der Benchparkour zur Auslotung der Gigabyte 9070 XT Gaming OC 16G ist erfolgt.

Time Spy Extreme 2.16 (4K) Standart ohne Intro:
Auslotung RAM-OC (Absteigend)

Gefunden: 2704Mhz RAM Sweepspot (Real: 2690Mhz)

Ist das mit ST oder FT beim Vram?
(spielt das beim Samsung überhaupt ne Rolle, ... kann sein, das man nach dem Umstellen neu booten muss)

[-110mV -5% / 2704Mhz RAM / -24%PT(250W) = 14362* Punkte] *KING*
Welchen Regler hast Du da mit -5% eingestellt?


btw.
die Diskussion übers UVen wurde schon 100x geführt
jeder nach seinem Belieben, sprich manche mögen 1x Profil overall und/aber
Friemler wie Gedi können auch spezielle Gameprofile anlegen, ... hat letztens auch Dargo so gemacht, weil 1 Ausreisser in R&C
ne ineffiziente generelle Einstellung wäre

Dr. Lars Sahmströhm
2026-01-16, 09:08:12
Ist das mit ST oder FT beim Vram?
(spielt das beim Samsung überhaupt ne Rolle, ... kann sein, das man nach dem Umstellen neu booten muss)
Da ich gelesen habe, dass Fast Timings bei Samsung Probleme machen soll, habe ich Standart Timings belassen. Interessante Info mit dem neu booten. Werde ich ggfs nochmal mit Fast Timings testen.

[-110mV -5% / 2704Mhz RAM / -24%PT(250W) = 14362* Punkte] *KING*
Welchen Regler hast Du da mit -5% eingestellt?
+/- 5% (selten auch 10%) bezieht sich immer auf die maximale Frequenzabweichung in Mhz. Einstellbar in der Leiste direkt über der wo man das UV vornimmt.

GerryB
2026-01-16, 09:11:55
Das ST vs FT nicht so einfach zu überprüfen ist, meinte ApolloX im Luxx.
(deswegen der Vorschlag, neu zu booten, falls Samsung da echt was umstellt,
ein WindowsSchnellstart ist für Sowas u.U. auch schlecht, müsste deaktiviert sein,
oder man macht den PC mal kurz ganz aus, um sicher zu sein)

dargo
2026-01-16, 09:34:09
Nur auf FSR habe ich so gar keine Lust. Einen Tod muss man leider sterben. Die DX12 Performance von Nvidia unter Linux ist leider unterirdisch.
Warum? FSR 4.0.3 sieht doch sehr gut aus.

Die Erfahrungen der User sind in diesem Thread zu finden...
dargo hat N48 ausgiebig getestet... bei Ratchet und Clank musste er auf -45mV runter... vielleicht sind es nicht -30/40 sondern eher -40-50mV... aber sicher sind nicht -100mV und darunter in allen Spielen stabil...

Ich finds etwas schade, dass niemand hier die R&C-Szene von mir testet. Mich würde zb. interessieren ob es überhaupt N48 gibt die diese Szene mit wesentlich mehr Offset als -45mV überleben. Dann hätte man einen etwas besseren Überblick über die Lotteriestreuung. :) Aber wie gesagt... nur wegen einem Spiel überall die -45mV verwenden fand ich dann später doch nicht so pralle. Deshalb bin ich jetzt bei -70mV, eventuell probiere ich noch die -75mV aus. Mit -70mV gefällt mir die RX 9070XT unglaublich gut da sie deutlich seltener in meinem custom PT von 261W verweilt und mit 19xW bis 261W in meinen Games arbeitet was mir bei Grafikkarten wesentlich besser gefällt als dauerhaft im PT-Limit. :) Hat wieder was vom effizienzoptimierten RDNA2. :up:

GerryB
2026-01-16, 09:51:59
lade doch mal das Savegame hoch, vllt. findet sich dann Jemand

aceCrasher
2026-01-16, 09:57:37
Warum? FSR 4.0.3 sieht doch sehr gut aus.
Das schon, aber man bekommt FSR4 leider nicht in so vielen Spielen zum laufen wie FSR4, da AMD erst so spät auf upgradebare DLLs umgestellt hat und zusätzlich manche Spiele nur DLSS haben.

Ich habe beispielsweise vor einer Weile Rise of the Tombraider gespielt und konnte da Transformer DLSS in einem Spiel von 2018 nutzen, mit FSR hätte ich mich da meines Wissens nach mit dem fürchterlichen ingame AA begnügen müssen. Außer natürlich das stimmt nicht und man bekommt da über optiscaler irgendwie FSR4 rein solange es DLSS gibt, dann korrigiere mich bitte.

Für mich bleibt das Ganze ein Dilemma, ich würde eigentlich lieber wieder eine AMD Karte besitzen in der Zukunft und halte die 9070 (XT) auch für tolle Karten, bin aber mittlerweile zu abhängig von DLSS.

Disco_STFU
2026-01-16, 10:08:15
Gibt es eigentlich Optiscaler für Linux? :o

GerryB
2026-01-16, 10:23:40
Ich habe beispielsweise vor einer Weile Rise of the Tombraider gespielt und konnte da Transformer DLSS in einem Spiel von 2018 nutzen, mit FSR hätte ich mich da meines Wissens nach mit dem fürchterlichen ingame AA begnügen müssen. Außer natürlich das stimmt nicht und man bekommt da über optiscaler irgendwie FSR4 rein solange es DLSS gibt, dann korrigiere mich bitte.
vermutlich machbar, wenn FSR3 auf ner RX580 funzt, dann ...

edit:
sieht auf meiner 6800 auch gut aus, von daher sollte eigentlich RDNA4 auf FSR4 umschalten können

raffa
2026-01-16, 10:56:42
Gibt es eigentlich Optiscaler für Linux? :o

Nicht direkt, läuft aber via Proton ziemlich einwandfrei (meistens)
edit: FSR4 via DLSS geht inzwischen recht easy. Eigentlich nur Opitscaler mit den defaults installieren, DLSS ingame auswählen und dann den passenden Ersatzupscaler aussuchen. Bleibt natürlich immer ein wenig mehr frickelei als natives DLSS, aber besser als wenns nicht geht : )

dargo
2026-01-16, 11:03:50
Das schon, aber man bekommt FSR4 leider nicht in so vielen Spielen zum laufen wie FSR4, da AMD erst so spät auf upgradebare DLLs umgestellt hat und zusätzlich manche Spiele nur DLSS haben.

Ich habe beispielsweise vor einer Weile Rise of the Tombraider gespielt und konnte da Transformer DLSS in einem Spiel von 2018 nutzen, mit FSR hätte ich mich da meines Wissens nach mit dem fürchterlichen ingame AA begnügen müssen. Außer natürlich das stimmt nicht und man bekommt da über optiscaler irgendwie FSR4 rein solange es DLSS gibt, dann korrigiere mich bitte.

Für mich bleibt das Ganze ein Dilemma, ich würde eigentlich lieber wieder eine AMD Karte besitzen in der Zukunft und halte die 9070 (XT) auch für tolle Karten, bin aber mittlerweile zu abhängig von DLSS.
Einfach FSR4 in SP-Games über den OptiScaler verwenden wo es nicht Ingame verfügbar ist, dafür aber DLSS oder XeSS.

Gibt es eigentlich Optiscaler für Linux? :o
Na klar.

Dr. Lars Sahmströhm
2026-01-16, 12:09:24
Ich hatte übrigens bei meinem Benchparkour noch einige Punkte herausgeholt, einfach indem ich Lüfterkurven kalibriert und synchronisiert habe. Mit dem Programm Fan Control (https://getfancontrol.com/) kann man jeden Sensor an jeden FAN binden und z.B. mehrere FANs an eine gemeinsame Kurve etc. Es half z.B. die Hyterese so einzustellen, dass die Grafikkarte nicht beim Laden eines neuen Levels/Benchmap immer wieder herunterregelt und wieder von Zero startet. All das konnte ich übers Bios nur sehr grob einstellen, viel zu grob. Der untere P14 Intake läuft damit auch absolut synchron mit den Graka-FANS und ist ebenso an die GPU-Hotspot Temp gebunden, fährt gleichzeitig super schnell hoch und langsam wieder herunter. Es ist gratis, es ist mächtig, es gibt keine Werbung. Ich habe viele Stunden damit verbracht und empfehle ausdrücklich.

https://i.postimg.cc/RZck5hgC/Screenshot-2026-01-16-120730.png

dargo
2026-01-16, 12:52:12
@Lars ;)
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13860780&postcount=2679

Hochzeit2
2026-01-16, 13:03:53
Die Erfahrungen der User sind in diesem Thread zu finden...
dargo hat N48 ausgiebig getestet... bei Ratchet und Clank musste er auf -45mV runter... vielleicht sind es nicht -30/40 sondern eher -40-50mV... aber sicher sind nicht -100mV und darunter in allen Spielen stabil...
Klar wird der Takt nicht fix auf einen konstanten Wert festgelegt sondern auf eine Obergrenze... Diese liegt dann um den eingestellten Wert unterhalb des Referenzwertes von i.d.R. 3450MHz...

WOW. Du erklärst das es genug Beispiele hier gibt.
Kannst dann aber nur ein Einziges nennen. Und selbst das fällt nicht in deine Lügenrange von max. -30/40 mV.

Wem soll man jetzt dafür gratulieren?

OgrEGT
2026-01-16, 13:16:29
WOW. Du erklärst das es genug Beispiele hier gibt.
Kannst dann aber nur ein Einziges nennen. Und selbst das fällt nicht in deine Lügenrange von max. -30/40 mV.

Wem soll man jetzt dafür gratulieren?
Du kannst auch gerne in der Wüste staubsaugen gehen... wenn du damit fertig bist dann kannst du ja gerne wiederkommen wenn du gelernt hast wie sich Erwachsene unterhalten... Viel Spaß noch

Hochzeit2
2026-01-16, 14:44:17
Ich bin dann doch arg verwundet, wie die Bitte nach Nachweisen für deine doch arg unwahr anscheinenden Aussage zu so einer Beleidigung führt.

Und was möchtest du mir mit "wenn du damit fertig bist dann kannst du ja gerne wiederkommen wenn du gelernt hast wie sich Erwachsene unterhalten" mitteilen?
Nicht das es zu Missverständnissen bezüglich deiner Aussage kommt.

dargo
2026-01-16, 19:37:20
lade doch mal das Savegame hoch, vllt. findet sich dann Jemand
Das kriegen wir hin, die Frage ist nur wer das Game hat und testen möchte? :tongue:

Savegame:
95298

6Hd-asBcfS0

Für bessere Vergleichbarkeit bitte unbedingt 4k + FSR_Quality mit max. Settings ohne RT verwenden.

GerryB
2026-01-16, 20:00:47
Frag mal Wiseman, der hatte evtl. das Spiel schonmal irgendwo im Treiberthread erwähnt,
oder Raff könnte auf jeden Fall auch UVen mit dem savegame testen.

Ist ds aktiv?

dargo
2026-01-16, 20:04:11
Was ist denn schon wieder "ds"?

GerryB
2026-01-16, 20:39:16
direct storage

dargo
2026-01-16, 20:58:19
Achso... verdammte Abkürzungen. :D Ja, alles Standard.

Wiseman
2026-01-16, 21:41:18
dargo, ich will es kurz machen. Ich sah heute Nachmittag deine Post zu Ratchet & Clank und deine UV von -45mV in diesem Spiel.

Ich installierte daraufhin Ratchet & Clank erneut und überprüfte es mit dem aktuellen 25.12.1 Treiber. Ich beginne jedes Spiel mit -60mV. Ist bei mir in fast allen Spielen stabil, aber halt nur fast. In Ratchet & Clank war -60mV nicht stabil, d. h. das Spiel hängte sich nach einer gewissen Spieldauer auf. Dann ging ich auf -55mV zurück. Auch bei -55mV hängte sich das Spiel nach einiger Zeit auf. Dann ging ich auf -50mV zurück und jetzt war es stabil.

Wie du siehst, machte ich in Ratchet & Clank die gleichen Erfahrungen wie du betreffs UV.

Dr. Lars Sahmströhm
2026-01-17, 04:37:22
Wie du siehst, machte ich in Ratchet & Clank die gleichen Erfahrungen wie du betreffs UV.
Das Game ist wahrscheinlich einfach nur broken und haut abartige Lastwechsel raus, weil irgendwas mit dem Culling nicht stimmt o.ä..
In Ratchet & Clank war -60mV nicht stabil, d. h. das Spiel hängte sich nach einer gewissen Spieldauer auf. Dann ging ich auf -55mV zurück. Auch bei -55mV hängte sich das Spiel nach einiger Zeit auf.
60mV mit -5% oder gar -10% auf die Max. Mhz probiert? Meinen Berechnungen (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13868868#post13868868) nach ist ein -5% Offset fast immer positiv, sowohl in Performance, als auch in Stabilität.

Ich kam ja von der Vega56 und im Prinzip habe ich UV auf dieser Karte "gelernt", das gab es zur Leistungssteigerung so vorher nicht. Bei der 9070XT ist der Spielraum des Erreichbaren aber leider sehr viel kleiner.

edit: Ich mache AI-Rendering.

-40Mv | -10% | -14% Power Target
ACHTUNG!
https://i.postimg.cc/50q0WycT/073645.png

Das 650W Netzteil hat gehalten. Obwohl die CPU ebenfalls fast am Anschlag war. :eek:

dargo
2026-01-17, 08:00:56
Wie kommst du überhaupt auf die Idee, dass jeder einzelne Telemetriewert bei N48 100% plausibel ist?

@Wiseman
Hast du jetzt x-beliebige Szene im Spiel genommen oder speziell mein Savegame? Falls ersteres bitte mein Savegame bei Gelegenheit prüfen. Der worst case ist wenn die Spinne in der Cutszene in Nahaufnahme erscheint. Achja... und dann bitte nicht 1x sondern 5x durchlaufen lassen.


Wie du siehst, machte ich in Ratchet & Clank die gleichen Erfahrungen wie du betreffs UV.
Ich habe zwar immer noch den Verdacht, dass es an der hohen Last von DirectStorage liegt, ist aber reine Vermutung meinerseits. Beweisen kann ich sowas natürlich nicht. Wie ich ja sagte laufen alle anderen Games bei mir mit -70mV bisher ohne zu streiken. Erst bei Avatar ist mir aufgefallen, dass -80mV nicht mehr stabil sind, -70mV dagegen schon.

TheGood
2026-01-17, 09:36:46
So seh ich das auch.
Aber ich habe auch schon festgestellt, dass die meisten Leute alles, was leiser ist als ein Staubsauger, als "silent" einstufen. Die allgemeinen Ansprüche sind da recht gering.
So ist es nölmich, die enthusiasten sollten endlich mal verstehen dass das für den otto normalverbrauch irrelevant ist. dazu ist man niht bereit für leiserer karten einen aufpreis zu bezahlen.

Dr. Lars Sahmströhm
2026-01-18, 06:10:23
Wie kommst du überhaupt auf die Idee, dass jeder einzelne Telemetriewert bei N48 100% plausibel ist?
Weil ich die Werte beim Rendering live beobachte und selbst mit -20% auf die Frequenz noch immer wieder Spitzen ~560W auftauchen. AI Berechnungen sind halt was anderes als Game-Engines.

Dasselbe gilt für Ray-Tracing. Das ist eine separate Fähigkeit, die mit der Performance in Games nicht 1:1 korreliert. Ich merke das jetzt in Elden Ring. Das hat nämlich RT bekommen und leider sieht es damit auch deutlich besser aus, bzw. ohne RT deutlich weniger plastisch. Das Spiel hat meinen Enthusiasmus nun gedämpft.

1. Ich muss auf -30mV reduzieren, damit es stabil läuft! (so viel zu Ratchet&Clank)

2. Das RT in Elden Ring macht zwischen "low" und "high" Einstellung nur 1-2 FPS aus, leider. Insgesamt habe ich auf low damit Einbrüche in bewaldeten Gebieten bis auf ca. 41 FPS@4K. Das Blöde ist, dass die restlichen Grafikeinstellungen daran auch kaum was ändern. Die Grafikkarte ist im Prinzip unterfordert. Schalte ich RT aus, bekomme ich stabile 60FPS, auch in bewaldeten Gebieten und trotz höchster Einstellungen. Sobald RT läuft, kann ich im Grunde nicht mehr in 4K spielen. Ich hab auch nicht das Gefühl, dass sich das fundamental ändert, wenn ich sie deutlich über 300W prügle, momentan läuft sie auf 280W gecappt.

Da das bereits der stärkste momentan verfügbare RT-Beschleuniger von AMD ist (eine 9080 wirds wohl nicht geben), und ich nur AMD Grafikkarten kaufe, muss ich wohl den Weg gehen und auf einem 27er Monitor in 1440p spielen.

GerryB
2026-01-18, 07:45:22
die Fps mit RT hängen in erster Linie von der Resi ab
also
wenns mehr Fps sein sollen hilft nur ein Upscaler
ggf. zusätzlich FG, falls die CPU schwach ist


Wattspitzen besagen gar nix, das sind Werte <<16ms
(i.d.R. sind die heutigen NT´s auf solche Spitzen ausgelegt und puffern das durch die Kondensatoren)
https://www.igorslab.de/amd-radeon-9070xt-und-9070-im-test-taktorgie-mit-brechstange-und-zumindest-etwas-vernunft-als-gegenpol/8/

das AMD solche Spitzen in HWinfo überhaupt anzeigt, ist nach m.E. nicht unbedingt erforderlich, da würden auch die üblichen
Mittelwerte reichen (Anzeige der Spitzen gibts bei NV glaube nicht, genauso wie keine Hotspots,=beruhigend für 0815User)

dargo
2026-01-18, 09:26:52
Weil ich die Werte beim Rendering live beobachte und selbst mit -20% auf die Frequenz noch immer wieder Spitzen ~560W auftauchen.
Bei welchen Intervall? 1000ms? Ich sehe die Werte auch nahezu ständig im Overlay und sage dir einzelne Telemetriewerte sind bullshit. Ich spreche jetzt nicht von Lastspitzen @20ms wie zb. bei Igor.
https://www.igorslab.de/amd-radeon-9070xt-und-9070-im-test-taktorgie-mit-brechstange-und-zumindest-etwas-vernunft-als-gegenpol/8/

Übrigens kann man sich selbst auf die geglätteten Telemetriewerte bei manchen Karten nicht verlassen. Siehe Nitro+, Mercury OC oder Taichi OC.
https://www.computerbase.de/artikel/grafikkarten/powercolor-rx-9070-xt-red-devil-hellhound-test.92205/seite-2#abschnitt_leistungsaufnahme

Die Hellhound XT ist dann auch lustig, zeigt etwas mehr an als tatsächlich verbraucht wird.


Da das bereits der stärkste momentan verfügbare RT-Beschleuniger von AMD ist (eine 9080 wirds wohl nicht geben), und ich nur AMD Grafikkarten kaufe, muss ich wohl den Weg gehen und auf einem 27er Monitor in 1440p spielen.
Viele Pixel hauen insbesondere bei RT extrem rein. Warum verwendest du kein FSR4?

Dr. Lars Sahmströhm
2026-01-19, 04:44:12
Viele Pixel hauen insbesondere bei RT extrem rein. Warum verwendest du kein FSR4?
Hab ich probiert, aber keine Ahnung ob es überhaupt funktioniert hat. Die Hardware-Daten von HWinfo wurden jedenfalls deutlich größer angezeigt, ergo: in 1440p, also upscaled wurde das nicht, allerdings das Game möglicherweise schon, jedenfalls bilde ich mir ein, dass es etwas weniger verschwommen aussah, als ich für 2K angenommen hätte.

Trotzdem ist das alles blöd. Es liegt daran, dass ich vor einem 55er TV sitze, das ist einfach nichts. Die PPI selbst mit 4K sind so grob, dass das Bild so eine leichte Körnung hat und die Unity Engine ist ja grundsätzlich problematisch, weil relativ körnig und flimmeranfällig. Und dann ist das auch noch ein VA Panel, das dieses leichte Geschmiere hat. Das sehe ich auf den Grasflächen in dem Spiel jedes mal, wenn ich die Kamera drehe, dass die Grashalme alle schwarz vermatschen, das verursacht bei mir latenten Kopfschmerz auf Dauer.

GerryB
2026-01-19, 06:47:45
FG sollte sich doch trotzdem lohnen.(falls nicht auswählbar, evtl. per Mod)
https://www.patreon.com/posts/erss-fg-v4-12-0-114748623
https://www.patreon.com/posts/erss-fg-free-v4-125972766

falls es unbedingt 4k nativ sein muss, probier mal high statt ultra
da gab es bei Enemies schon mehr Fps
https://www.computerbase.de/news/gaming/unity-die-enemies-techdemo-kann-nun-ausprobiert-werden.82304/
(bei Enemies funzt der Optiscaler anstandslos, ... k.A. wie es inzwischen bei ER ausschaut)

beim Enemies-User-benchmark hatte ich den Eindruck, das CPU+Ram auch ne Rolle spielt
Das wäre ja nicht soo ungewöhnlich, das RT auch die CPU fordert.

Spring
2026-01-19, 07:12:38
@Lars: Wie dargo schon sagte: FSR4 benutzen :)

Hier als Beispiel Arc Raiders @ 4K, alles auf episch (Texturen auf cineastisch)
mit FSR 4: Balanced und AFMF aktiv (angezeigte fps werden verdoppelt)

https://cdn.discordapp.com/attachments/1138433833910419486/1462689803886792705/Zwischenablage7.png?ex=69706d08&is=696f1b88&hm=d8c37cc3f9d505a1820bcebfcbff3852ef400507aa3b7596e0ed72d8fa6a5eb9&

Sieht gut aus (trotz "nur" Balanced), aber wenn man gräbt sieht man links vom Rucksack ein sehr schnell fliegendes Projektil (oder Arc) am ghosten. Kann auch wg AFMF sein.
Real fällt das nicht auf, ist auch wirklich worst case (daher der Screen).

dargo
2026-01-20, 10:47:04
Da ich zum zweiten Mal nun die absolute Perle @God of War: Ragnarök durchspiele (erstes Mal überwiegend mit FSR-FG, dieses Mal ohne FG) habe ich aus Neugier hier mal mehr UV probiert. GoW:R läuft auf meiner Hellhound XT mit -90mV problemlos (schon viele Spielstunden damit auf der Uhr), -100mV ist dann nicht mehr stabil.

Dr. Lars Sahmströhm
2026-01-20, 16:56:07
Es ist auch auflösungsabhängig. Elden Ring 4K musste ich auf -30mV, aber 2K scheint auch mit -40mV zu laufen, evtl. sogar etwas mehr, da muss ich noch testen.

Die 9070 XT, die ich mit 60€ Cashback Ende Dezember für 609€ (effektiv 549€) gekauft habe, kostet jetzt 779€. Ich hab sogar noch das verlängerte Rückgabefenster. Bis 31.01.26 könnte ich sie noch retournieren. Was würden die sich freuen. Wenn das so weitergeht, ist sie dann bei knapp 900. :crazy:

dargo
2026-01-20, 17:24:25
Es ist auch auflösungsabhängig. Elden Ring 4K musste ich auf -30mV, aber 2K scheint auch mit -40mV zu laufen, evtl. sogar etwas mehr, da muss ich noch testen.

Sag bloß... GPU-Last skaliert mit Pixeln? Mal was ganz Neues. :wink:


Die 9070 XT, die ich mit 60€ Cashback Ende Dezember für 609€ (effektiv 549€) gekauft habe, kostet jetzt 779€. Ich hab sogar noch das verlängerte Rückgabefenster. Bis 31.01.26 könnte ich sie noch retournieren. Was würden die sich freuen. Wenn das so weitergeht, ist sie dann bei knapp 900. :crazy:
Die Speicherkrise hast du verschlafen? :D Die Preissteigerung bei Grafikkarten war sogar angekündigt.

Wiseman
2026-01-20, 21:56:51
Also ich gehe beim UV meiner 9070XT grundsätzlich nicht über -70mV. Da bin ich auf der sicheren Seite. Hab auch schon lange keine Lust mehr auf weiteres Herumfrickeln beim Tuning.

Da ich God of War Ragnarök noch nicht gelöscht habe, ging ich heute - angeregt durch dargo - in meinen zweiten Durchgang rein und spielte ca. 1 Stunde lang. Ich wusste aus früheren Sessions, dass God of War Ragnarök mit -70mV stabil läuft. Also stellte ich im Tuning-Fenster UV auf -70mV. Lief bei mir in 4k Native mit -70mV stabil und geschmeidig. So soll es sein. So macht Gaming Spaß.

Dr. Lars Sahmströhm
2026-01-21, 07:01:53
Die Speicherkrise hast du verschlafen? :D Die Preissteigerung bei Grafikkarten war sogar angekündigt.
Ich hatte was von 10% Aufschlag gelesen, den AMD haben will und der vermutlich (sicher war das noch nicht) an die Endkunden weitergereicht wird.

Und dann die Krise bei Solid-State-Herstellern, RAM und SSDs. Wobei die ja noch GDDR6 haben, also im Prinzip ein end-of-lifetime Produkt.

GerryB
2026-01-21, 10:19:36
mal abgesehen von Cashback-Aktionen, bezahlt man heute schon >10% mehr als noch im November
(von 585€ auf 669€ heute im Mindstar, ist schon eine deutliche Preiserhöhung, trotzdem noch <UVP)

Wenn jetzt die 5070Ti stark verknappt wird, könnten da im Laufe des Jahres sogar nochmal 10%+ obendrauf kommen,
Richtung 749€ für ne 9070xt würde mich nicht wundern.

dargo
2026-01-21, 12:08:31
Ich habe keine Ahnung woher eure 10% kommen. Die Rede war von +10$ je 8GB in der ersten Erhöhungsstufe.

dildo4u
2026-01-21, 12:14:06
Nicht vergessen es können wegen Ram Preisen weniger High-End Systeme gebaut werden wo man eine 9070 verbauen würde daher könnten sie bei 700€ maxen.

Bismarx
2026-01-21, 15:40:13
Ist eine 9070 "High end"? Ich habe mir meine 9070 XT jedenfalls in ein altes System gesetzt (B450-Board mit 5700X3D). Die Karte war zum Kaufzeitpunkt schon wertvoller als der Rest des Systems. Das macht aber nichts, da selbst mit der alten CPU der Rechner eh eher im GPU-Limit liegt.

Vielleicht hat der eine oder andere keine Lust sich eine 1000€-Karte in einen PC mit 400-500 € Restwert zu schrauben. Aber wenn es keine Alternative gibt und es von der Performance noch halbwegs harmoniert...

dargo
2026-01-21, 16:22:49
Ist eine 9070 "High end"?
Nein. Zumindest nicht nach meiner Definition mit 357mm². High-End fängt bei mir mit >500mm an.

Also ich gehe beim UV meiner 9070XT grundsätzlich nicht über -70mV. Da bin ich auf der sicheren Seite. Hab auch schon lange keine Lust mehr auf weiteres Herumfrickeln beim Tuning.

Da ich God of War Ragnarök noch nicht gelöscht habe, ging ich heute - angeregt durch dargo - in meinen zweiten Durchgang rein und spielte ca. 1 Stunde lang. Ich wusste aus früheren Sessions, dass God of War Ragnarök mit -70mV stabil läuft. Also stellte ich im Tuning-Fenster UV auf -70mV. Lief bei mir in 4k Native mit -70mV stabil und geschmeidig. So soll es sein. So macht Gaming Spaß.
War nur just for fun, nach weiteren Spielstunden hat sich herausgestellt, dass die -90mV noch etwas zu knapp waren. Ergo liegen just for fun jetzt -80mV an. In der Regel verwende ich aber auch überall -70mV. Einzige Ausnahme bisher war R&C.

SpoOokY1983
2026-01-23, 19:14:18
Meine XFX Swift 9070 XT läuft nun stabil bei -70 und Mem auf 2800Mhz. PL bei 270 Watt. Damit ist sie schneller und leiser als stock, bin ganz zufrieden. Unter Linux macht die Karte schon Spaß, alles läuft. RT...naja...das ist schon noch ziemlich mau, Mesa 26 verbessert das hoffentlich. Zumindest konnte ich endlich Windows runterschmeißen :D.

Dr. Lars Sahmströhm
2026-01-23, 21:24:24
Meine XFX Swift 9070 XT läuft nun stabil bei -70 und Mem auf 2800Mhz. PL bei 270 Watt. Damit ist sie schneller und leiser als stock, bin ganz zufrieden.
Glaube ich nicht. Ich glaube dir, dass der RAM mit 2800 läuft, aber ich glaube dir nicht, dass sie damit schneller ist. Die Tests, die ich bisher sah, deuten alle darauf hin, dass es ab ca. 2700Mhz einen negativen Return gibt, auch wenn das noch läuft. Der RAM beginnt dann zu throtteln, er verblödet.

Langlay
2026-01-23, 23:15:51
Glaube ich nicht. Ich glaube dir, dass der RAM mit 2800 läuft, aber ich glaube dir nicht, dass sie damit schneller ist. Die Tests, die ich bisher sah, deuten alle darauf hin, dass es ab ca. 2700Mhz einen negativen Return gibt, auch wenn das noch läuft. Der RAM beginnt dann zu throtteln, er verblödet.


Ich bezweifel eher die -70mV stabil, 2800 MHz Mem hat meine ehemalige 9070XT mit Samsung RAM auch gemacht, mit Leistungsgewinn.

gedi
2026-01-23, 23:18:21
…. was kompletter Humbug ist und nur bei GDRX auftritt!

TheGood
2026-01-24, 09:32:18
Ist eine 9070 "High end"? Ich habe mir meine 9070 XT jedenfalls in ein altes System gesetzt (B450-Board mit 5700X3D). Die Karte war zum Kaufzeitpunkt schon wertvoller als der Rest des Systems. Das macht aber nichts, da selbst mit der alten CPU der Rechner eh eher im GPU-Limit liegt.

Vielleicht hat der eine oder andere keine Lust sich eine 1000€-Karte in einen PC mit 400-500 € Restwert zu schrauben. Aber wenn es keine Alternative gibt und es von der Performance noch halbwegs harmoniert...

HEHE meine ist noch in einem Intel i7 4990k die mehrpower im vergleich zu einer 6700xt ist jetzt nicht so prickelnd :) Der neue rechner wartet aber noch auf den zusammenbau.

SpoOokY1983
2026-01-25, 16:28:26
Glaube ich nicht. Ich glaube dir, dass der RAM mit 2800 läuft, aber ich glaube dir nicht, dass sie damit schneller ist. Die Tests, die ich bisher sah, deuten alle darauf hin, dass es ab ca. 2700Mhz einen negativen Return gibt, auch wenn das noch läuft. Der RAM beginnt dann zu throtteln, er verblödet.

Memtest Vulkan zeigt bis 2850 steigende Durchsätze an, allerdings bei 2850 dann irgendwann Fehler. 2800 läuft min eine Stunde ohne Fehler.

Die -70 laufen in CP77, AWII und stundenlang FF7 Remake Integrale sowie KCDII bisher stabil.

Dr. Lars Sahmströhm
2026-01-26, 10:44:23
Memtest Vulkan zeigt bis 2850 steigende Durchsätze an, allerdings bei 2850 dann irgendwann Fehler. 2800 läuft min eine Stunde ohne Fehler.

Die -70 laufen in CP77, AWII und stundenlang FF7 Remake Integrale sowie KCDII bisher stabil.
Das siehst du nur in Gaming-Benchmarks. Wo die theoretisch steigenden Durchsätze auf reale Anwendungen treffen, die die Chips fordern und erhitzen. Ich hab dafür Time Spy Extreme verwendet.
-140mV / 2652Mhz RAM / -15%PT(280W) = 14781 Punkte
-140mV / 2662Mhz RAM / -15%PT(280W) = 14797 Punkte (+10Mhz RAM = +16)
-140mV / 2672Mhz RAM / -15%PT(280W) = 14816 Punkte (+10Mhz RAM = +19)
-140mV / 2684Mhz RAM / -15%PT(280W) = 14831 Punkte (+12Mhz RAM = +15)
-140mV / 2694Mhz RAM / -15%PT(280W) = 14866 Punkte (+10Mhz RAM = +35) *Sweepspot?*
-140mV / 2704Mhz RAM / -15%PT(280W) = 14887 Punkte (+10Mhz RAM = +27) *Sweepspot?*
-140mV / 2714Mhz RAM / -15%PT(280W) = 14807 Punkte (+10Mhz RAM = -80!)
-140mV / 2724Mhz RAM / -15%PT(280W) = 14820 Punkte (+10Mhz RAM = -67!)
-140mV / 2734Mhz RAM / -15%PT(280W) = 14830 Punkte (+10Mhz RAM = -57!)
-140mV / 2744Mhz RAM / -15%PT(280W) = 14846 Punkte (+10Mhz RAM = -41!)
-140mV / 2754Mhz RAM / -15%PT(280W) = 14858 Punkte (+10Mhz RAM = -29!)
Wie du siehst, macht mein Speicher (ebenfalls Samsung) einen "Knick" bei ca. 2704 Mhz und bricht dann um 80 Punkte ein bei 2714 Mhz. Auch mit 2754 Mhz kommt er nicht mehr an das Ergebnis von 2704 heran, das ist ein klares Zeichen dafür, dass er throttelt und das sieht man teilweise auch, wenn die Frequenz nicht 100% stabil anliegt und immer wieder dippt. Ich hatte dort aufgehört zu testen, aber vielleicht hätte ich auch 2800 geschafft und vielleicht wäre ich damit gleich gezogen oder leicht über dem gelegen, was mit 2704 erreicht wurde, aber das ist ja dann Schwachsinn, weil du keine Mehrperformance erreichst, aber Instabilitäten provozierst, bzw. den RAM "sinnlos" am Limit fährst. Meine RAM-Temp war zu keinem Zeitpunkt über 64° es kann daher auch nicht an Überhitzung liegen, sondern da wird offenbar ein interner Limiter getriggert.

Probier das mit deinem Speicher mal aus. Ich würde wetten, dass du ein ähnliches Ergebnis bekommst. Wichtig ist natürlich immer nur den RAM um +10/20Mhz zu verstellen, sonst nichts.

Der_Korken
2026-01-26, 10:54:14
Das siehst du nur in Benchmarks. Ich hab dafür Time Spy Extreme verwendet.

Wie du siehst, macht mein Speicher (ebenfalls Samsung) einen "Knick" bei ca. 2704 Mhz und bricht dann um 80 Punkte ein bei 2714 Mhz. Auch mit 2754 Mhz kommt er nicht mehr an das Ergebnis von 2704 heran, das ist ein klares Zeichen dafür, dass er throttelt und das sieht man teilweise auch, wenn die Frequenz nicht 100% stabil anliegt und immer wieder dippt. Ich hatte dort aufgehört zu testen, aber vielleicht hätte ich auch 2800 geschafft und vielleicht wäre ich damit gleich gezogen oder leicht über dem gelegen, was mit 2704 erreicht wurde, aber das ist ja dann Schwachsinn, weil du keine Mehrperformance erreichst, aber Instabilitäten provozierst, bzw. den RAM "sinnlos" am Limit fährst.

Für mich sieht deine Tabelle eher so aus, als würden über 2700Mhz schlechtere Timings verwendet, denn nach dem initialen Verlust steigt die Leistung danach mit steigendem Takt wieder an. Das ist kein typisches Verhalten für eine Instabilität oder Throttling. Bei letzterem würde die Leistung mit steigendem Takt stagnieren und bei Übertragungsfehlern würde die Leistung mit steigendem Takt immer weiter sinken. Für Stabilität würde ich aber sowas wie den Vulkan Memtest verwenden, da er deutlich empfindlicher ist als 3DMark o.ä.

Dr. Lars Sahmströhm
2026-01-26, 11:14:43
Für mich sieht deine Tabelle eher so aus, als würden über 2700Mhz schlechtere Timings verwendet
Die Tabelle wurde ausschließlich mit "standart timings" gemacht. Ich hatte danach auf fast timings gestellt, evtl. teste ich das nochmal nach. Vielleicht besteht das "throttling" aber auch darin, dass der Speicher selbst dynamisch seine Timings verschlechtert.

Der hatte auch so ein Verhalten bei einer Powercolor Hellhound entdeckt, ab Minute 14:00
mQlqofX3wfA

Der_Korken
2026-01-26, 12:05:45
Vielleicht besteht das "throttling" aber auch darin, dass der Speicher selbst dynamisch seine Timings verschlechtert.

Genau das meinte ich. Der Speicher hat eventuell intern eine Tabelle, welche Timings er bei welchem Taktbereich anlegt und du hast bei deinem Sweet Spot einfach die Stelle erreicht, wo die Timings alle auf eine schlechtere Stufe springen.

SpoOokY1983
2026-01-26, 14:11:23
Habe jetzt mal quick and dirty mit dem CP77 Bench getestet. Die Ergebnisse sind extrem nah beieinander. Avg FPS +1 bei 2800Mhz, dafür min FPS - 1. Bei 2.750Mhz das Ganze dann umgedreht. Werde bei 2.750 bleiben, schadet dem Speicher sicherlich nicht.