Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 9070 & 9070 XT Review-Thread
Seiten :
1
2
3
4
5
6
[
7]
8
dargo
2025-05-14, 18:59:59
Wird mit höheren Temperaturen vs. Hellhound erkauft. ;)
OgrEGT
2025-05-14, 19:03:32
Wird mit höheren Temperaturen vs. Hellhound erkauft. ;)
Ja aber minimal und unkritisch...
GPU / GPU Hotspot / VRAM
Red Devil
63 / 86 / 92 °C
Hellhound
60 / 80 / 92 °C
Wiseman
2025-05-14, 19:04:06
Ein Takt deutlich über 3000 MHz ist bei meiner Hellhound 9070XT keineswegs ungewöhnlich. Um zu zeigen, dass die 3360 MHz aus dem Far Cry 6 Benchmark keine Eintagsfliege waren, mischte ich mich im Spiel Horizon Zero Dawn Remastered in der Sun City unters Volk und machte einen Schnappschuss (3270MHz). Auch hier hatte ich zuvor den Wattverbrauch auf max 317 W (stock) gestellt. Auch hier hatte ich im GPU Tuning Fenster nichts am Takt verändert.
Anscheinend gibt es inzwischen zu FSR 4 ein kleines Upgrade, denn im Menü von Horizon Zero Dawn Remastered wird FSR 4.0.1 angezeigt.
dargo
2025-05-14, 20:09:08
Ja aber minimal und unkritisch...
GPU / GPU Hotspot / VRAM
Red Devil
63 / 86 / 92 °C
Hellhound
60 / 80 / 92 °C
Setze die Lüfter der Hellhound auf 890RPM fest und du wirst gleiche Temperaturen erhalten. Beim GPU-Hotspot möglicherweise sogar minimal weniger. Ich hatte auch übrigens nirgendwo gesagt es wäre kritisch, ich sehe nur nicht den Mehrwert einer Red Devil Kühlung. ;)
Bei den Karten wo PTM verwendet wird, dauert es ein wenig, bis der Kühler seine volle Leistung entfalten kann. Da dann das PCB kühler wird, fallen auch die Vram Temperaturen in tatsächlich unbedenkliche Bereiche. Selbst eine Mercury ist dann kaum mehr wahrnehmbar!
BTW. Ist die Min-Kurve bei der Mercury 15%, was dann in ~380 U/min mündet!
Ich hätte die Mercury nie verkauft, wenn es gesichert einen Wakü-Block für das Ding geben würde. Die Karte ist erste Sahne und mit UV bei +10% absolut auf Augenhöhe mit meiner ex-4090, welche wassergekühlt war.
Und wenn mir jetzt jemand mit PT kommt: Um dies sinnvoll zu beschleunigen, braucht es es wenigstens noch eine weitere Generation an GPUs, egal ob NV, oder AMD!
IceKillFX57
2025-05-15, 07:11:39
ist eig die asus prime oc oder hellbount besser?
dargo
2025-05-15, 07:51:38
Beim Kühler definitiv die Hellhound XT wenn dich die ~800RPM in Idle bei non ZeroFan nicht stören.
IceKillFX57
2025-05-15, 08:59:44
ok top danke
Wiseman
2025-05-15, 16:03:16
F.: Wie läuft Doom The Dark Ages auf 'ner 9070XT?
A.: Fluffig ³ bei max 220W
Hellhound 9070XT max 220W, 4k native, Ultra Nightmare, TAA, AFMF2.1: avg ca. 100 fps
Weil heute Tag der Offenen Tür ist, erkläre ich Bildunterschrift und Overlay XL ausführlich und zeige auch noch mein GPU Tuning.
4k = 3840x2160 Pixel
max 220 W = PL -30%
Ultra Nightmare = maxed-out
TAA = native (laut Raff sehr gut)
AFMF2.1 = FG x2
GPU CLK = diesmal keine 3300MHz (2650MHz ist normal bei PL -30%)
GPU Temp (52°C), GPU Hotspot (66°C), GPU Mem Temp (82°C) = nach 15 Minuten Aufwärmphase
GPU Fan = ca. 800 RPM (normal bei Max Fan Speed 30%)
GPU Mem Util = 11950 MB (kein Problem für eine 16 GB Karte)
TAA = native (laut Raff sehr gut)
Sehr stabil, sauber – aber es kitzelt weniger feine Details heraus als DLSS & Co. Solange FSR 4 nicht geht, dürfte das die beste Wahl für flotte Radeons sein, denn das FSR-3-Schmieren bei Alphatests ist recht eklig. Aber im Grunde ist das, wie immer, Geschmackssache und Zeit für Sightseeing hat eh nicht oft.
MfG
Raff
OgrEGT
2025-05-15, 18:39:01
Sehr stabil, sauber – aber es kitzelt weniger feine Details heraus als DLSS & Co. Solange FSR 4 nicht geht, dürfte das die beste Wahl für flotte Radeons sein, denn das FSR-3-Schmieren bei Alphatests ist recht eklig. Aber im Grunde ist das, wie immer, Geschmackssache und Zeit für Sightseeing hat eh nicht oft.
MfG
Raff
Gibt es schon eine Schätzung wann FSR4 für Vulkan unterstützt wird?
Lurtz
2025-05-15, 19:57:34
Gibt es schon eine Schätzung wann FSR4 für Vulkan unterstützt wird?
Gibt AFAIK keine Aussagen dazu. Scheint auch nicht so trivial zu sein technisch: https://themaister.net/blog/2025/05/09/conquering-fidelityfx-fsr4-enabling-the-pretty-pixels-on-linux-through-maniacal-persistence/
aufkrawall
2025-05-15, 20:34:13
Afair hieß es Vulkan-Support "Mitte des Jahres" mit dem GitHub-Release.
Wiseman
2025-05-16, 00:46:53
Sehr stabil, sauber – aber es kitzelt weniger feine Details heraus als DLSS & Co. Solange FSR 4 nicht geht, dürfte das die beste Wahl für flotte Radeons sein, denn das FSR-3-Schmieren bei Alphatests ist recht eklig. Aber im Grunde ist das, wie immer, Geschmackssache und Zeit für Sightseeing hat eh nicht oft.
MfG
Raff
Ich denke, der erfahrene Kapitän umschifft schmierige Klippen, indem er FSR NativeAA Segel setzt.
OgrEGT
2025-05-16, 00:48:36
Gibt AFAIK keine Aussagen dazu. Scheint auch nicht so trivial zu sein technisch: https://themaister.net/blog/2025/05/09/conquering-fidelityfx-fsr4-enabling-the-pretty-pixels-on-linux-through-maniacal-persistence/
Interessant weiter unten, als er FSR4 mittels der FP8 Emulation unter Vulkan auch ansatzweise auf RDNA3 zum laufen bekommen hat. Wie "massive" der Performance Hit wäre ist leider nicht genauer angegeben...
With this, RDNA 3 can do FSR 4 on vkd3d-proton if you’re willing to take a massive dump on performance.
GerryB
2025-05-16, 06:55:59
mit FP16-Backfall könnten es sogar größere RDNA2, wenn man denn wollte
ein DP4a mit 4xINT8 wäre natürlich nicer(x)
(x) sollte doch nicht soviel ungenauer sein als FP4
Exxtreme
2025-05-16, 09:06:49
Interessant weiter unten, als er FSR4 mittels der FP8 Emulation unter Vulkan auch ansatzweise auf RDNA3 zum laufen bekommen hat. Wie "massive" der Performance Hit wäre ist leider nicht genauer angegeben...
Steht unten. FSR4 nativ ist 3,5x schneller als diese Emulation.
dildo4u
2025-05-16, 11:52:54
Ziemlich beeindruckend wie die 9070 XT in diesem AI Video Programm läuft.
Selbst gegen 5080 mit finaler Unterstützung.
https://www.computerbase.de/news/grafikkarten/topaz-video-ai-6-neue-benchmarks-der-video-ai-software-mit-tensor-rt-fuer-blackwell.92555
Emil_i_Lönneberga
2025-05-16, 17:33:56
Kühler:
https://www.aquatuning.com/search?sSearch=9070
Eine Version deckt mehrere PCBs ab, z.B.
https://www.aquatuning.com/wasserkuehlung/custom-wasserkuehlung/gpu-kuehler/amd/wak-alphacool-core-rx-9070-xt-hellhound-pure-mit-backplate
Kompatibilität:
- PowerColor Hellhound AMD Radeon™ RX 9070 16GB GDDR6
- Sapphire PULSE AMD Radeon™ RX 9070 GPU
- PowerColor Hellhound AMD Radeon™ RX 9070 XT 16GB GDDR6
- PowerColor Reaper AMD Radeon™ RX 9070 XT 16GB GDDR6
- Sapphire PULSE AMD Radeon™ RX 9070 XT GPU
- Sapphire PURE AMD Radeon™ RX 9070 XT GPU
1x https://www.aquatuning.com/AtsdCartSave/load/key/8b039a79a1a9dc9ce7c727d21e0df12d
2x https://shop.aquacomputer.de/Wasserkuehlung/Anschluesse-Schlaeuche/System-16-10-mm/Schlauch-Aqua-Computer-16-10-mm-PVC-transparent-Rev-2::4252.html
6x https://shop.aquacomputer.de/Wasserkuehlung/Anschluesse-Schlaeuche/System-16-10-mm/Barrow-Schlauchverschraubung-16-10-mm-G1-4-silber::4011.html
Wenn ihr Wert auf Lautstärke legt, dann schaut euch bitte ausschließlich Reviews an, welche im geschlossenen Gehäuse durchgeführt wurden. Wo die Taichi leiser als die XFX Mercury sein soll, erschließt sich mir nicht.
Wiseman
2025-05-16, 19:32:54
Für Gamer, denen bei einem Shooter wie DOOM The Dark Ages auf ihrem 4k-Monitor einerseits eine Render Resolution von 1920x1080 ausreicht und die andererseits mit ca. 200 fps spielen wollen, ist die 9070XT die richtige Wahl.
9070XT max 317W, 4k, Ultra Nightmare, FSR3 P + FG: AVG 203 fps
Kühler:
https://www.aquatuning.com/search?sSearch=9070
Eine Version deckt mehrere PCBs ab, z.B.
https://www.aquatuning.com/wasserkuehlung/custom-wasserkuehlung/gpu-kuehler/amd/wak-alphacool-core-rx-9070-xt-hellhound-pure-mit-backplate
1x https://www.aquatuning.com/AtsdCartSave/load/key/8b039a79a1a9dc9ce7c727d21e0df12d
2x https://shop.aquacomputer.de/Wasserkuehlung/Anschluesse-Schlaeuche/System-16-10-mm/Schlauch-Aqua-Computer-16-10-mm-PVC-transparent-Rev-2::4252.html
6x https://shop.aquacomputer.de/Wasserkuehlung/Anschluesse-Schlaeuche/System-16-10-mm/Barrow-Schlauchverschraubung-16-10-mm-G1-4-silber::4011.html
Toll, ich habe mir die Taichi nur gekauft, weil es gesichert einen Block geben wird. Heute eingebaut und nun sehe ich dass es auch einen Block für die Mercury geben wird. Manchmal hasse ich mein Leben...
Toll, ich habe mir die Taichi nur gekauft, weil es gesichert einen Block geben wird. Heute eingebaut und nun sehe ich dass es auch einen Block für die Mercury geben wird. Manchmal hasse ich mein Leben...
Sieh's mal so: Du hast die Karte mit dem höchstmöglichen Powerlimit, kannst sie also mit dem Block bei Bedarf fast ungehemmt ausfahren (https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/Tests/vs-RTX-5070-Ti-5080-Release-Benchmark-Overclocking-1467630/).
MfG
Raff
Das geht auch mit dem Originalkühler, wie bei der Mercury. Lüfterkurve jeweils default. Beide machen -150mv, 2.8g Vram bei 374w easy. Der Taichi-Kühler ist allerdings kaum leiser, als der der Mercury und die Temperaturen sind annähernd identisch. Naja, 800€ in den Wind geschossen, but wayne ...
Von der Idee mit den -150 mV solltest du dich unter Volllast besser ganz schnell verabschieden, sofern du nicht von "nur" 3 GHz (und somit sehr geiler Effizienz) redest. ;)
MfG
Raff
Emil_i_Lönneberga
2025-05-17, 19:36:37
Toll, ich habe mir die Taichi nur gekauft, weil es gesichert einen Block geben wird. Heute eingebaut und nun sehe ich dass es auch einen Block für die Mercury geben wird. Manchmal hasse ich mein Leben...
Rückgaberecht schon abgelaufen?
Am 13. März ist für die XFX Mercury XT ein Kühler angekündigt worden,
https://forum.alphacool.com/threads/what-do-you-want.61/page-10#post-30382
https://videocardz.com/newz/amd-launches-radeon-rx-9070-xt-and-rx-9070-graphics-cards
und am 26.3. auch noch eine explizite Auflistung.
https://forum.alphacool.com/threads/what-do-you-want.61/page-10#post-30503
9. April noch mit non-XT ergänzt:
https://forum.alphacool.com/threads/what-do-you-want.61/page-11#post-30695
Von der Idee mit den -150 mV solltest du dich unter Volllast besser ganz schnell verabschieden, sofern du nicht von "nur" 3 GHz (und somit sehr geiler Effizienz) redest. ;)
MfG
Raff
Sorry, ich weiß nicht von was du redest. Ich rede von Spielen und Simulation. Gespielt wird hier je in 4k, alles was mit Motorsport zu tun hat, also F1 24, das neue Corsa usw., der FS 2020, Stalker und auch ältere Titel wie FE7 usw. Nicht ein einziges Mal sind mir mit neueren Treibern die Games gecrashed! Und hier liegen min. 3.18g an, welches allerdings auch oft bei knapp 3.5g mündet! Zu meiner ex-4090 welche sich 500w genehmigt hat und wassergekühlt war, gibt es tatsächlich keinen großen Unterschied. PT natürlich außen vor, aber dafür war auch die 4090 zu langsam ...
Es könnte natürlich auch sein, dass ich das OC per Gameprofil belege und somit auf die Werte komme. Sprich: Ich liebe HL2 mit Mods, dafür brauchen es aber keine 374w bei 2.8g Vram-Takt. Da reichen die 238w (welche Spikes vorbeugen) bei Originaltakt, um dann in Stalker wieder volles Rohr zu fahren und nix verstellen muss! Ich liebe AMD!
nagus
2025-05-18, 15:52:42
Hat schon jemand versucht eine Sapphire 9070 Puls auf die XT. Version zu flashen?
OgrEGT
2025-05-18, 16:16:58
Hat schon jemand versucht eine Sapphire 9070 Puls auf die XT. Version zu flashen?
Mit welchem Tool?
The_Invisible
2025-05-18, 17:16:52
Zu meiner ex-4090 welche sich 500w genehmigt hat und wassergekühlt war, gibt es tatsächlich keinen großen Unterschied. PT natürlich außen vor, aber dafür war auch die 4090 zu langsam ...
Ja klar... :freak:
nagus
2025-05-18, 18:42:56
Mit welchem Tool?
keine ahnung, deswegen frage ich ja ;)
OCmylife
2025-05-18, 18:53:43
keine ahnung, deswegen frage ich ja ;)
Soweit ich weiß, gibt es immer noch kein Tool um bei den aktuellen (7000+) AMD GPUs ein BIOS zu flashen, welches nicht für die Grafikkarte vorgesehen ist. Dafür benötigt man ein Hardware Programmer wie den C341A.
https://www.youtube.com/watch?v=MRr6c68ZyI0&t=311
nagus
2025-05-18, 19:12:30
ah ja, danke! dann heißt es warten :)
Freestaler
2025-05-18, 19:16:09
Wieso warten auf ein Tool, den Programmer gibts für unter 10€.
horn 12
2025-05-18, 19:44:51
Also meine 9070 Hellhound XT machte heute bei The Last of US II
Stolze 3130 bis gar 3240 Mhz mit beim Game und Lüfter mit maximal 1410 U/ min
bei Powerlimit Minus 18 Prozent und Hotspot max. 73 Grad, Speicher 84 Grad, teilweise maximal 86 Grad.
Wirklich Hammer Karte und für 780 Euro gekauft und die 7900 XTX um 680 Euro losgeworden OHNE Garantie
ABER das Herz blutet für diese Super MBA Karte noch heute!
OgrEGT
2025-05-18, 20:27:56
https://videocardz.com/newz/yeston-launches-dual-slot-radeon-rx-9070-gre-xt-gaea-graphics-cards
7x6mm Heatpipes
2x96mm Fans
Dualslot
2x8-Pin
Mal nach Tests bzgl. Lautstärke und Störgeräusche Ausschau halten...
dargo
2025-05-18, 21:00:07
Wofür? Wird in Europa mit hoher Wahrscheinlichkeit eh nicht erhältlich sein.
Also meine 9070 Hellhound XT machte heute bei The Last of US II
Stolze 3130 bis gar 3240 Mhz mit beim Game und Lüfter mit maximal 1410 U/ min
bei Powerlimit Minus 18 Prozent und Hotspot max. 73 Grad, Speicher 84 Grad, teilweise maximal 86 Grad.
Nichts besonderes, das Game heizt wenig. :)
Wiseman
2025-05-19, 16:14:15
Also meine 9070 Hellhound XT machte heute bei The Last of US II
Stolze 3130 bis gar 3240 Mhz mit beim Game und Lüfter mit maximal 1410 U/ min
bei Powerlimit Minus 18 Prozent und Hotspot max. 73 Grad, Speicher 84 Grad, teilweise maximal 86 Grad.
Wirklich Hammer Karte und für 780 Euro gekauft und die 7900 XTX um 680 Euro losgeworden OHNE Garantie
ABER das Herz blutet für diese Super MBA Karte noch heute!
Da bin ich ganz deiner Meinung. Wenn PowerColor, der Hersteller unserer Hellhound 9070XT, für Standard/Silent einen maximalen Boost-Takt von 2970 MHz und für OC einen maximalen Boost-Takt von 3010 MHz angibt (Siehe Specifications-Screenshot), dann sind deine mit 260 W (PL -18%, nix Takt-OC) erzielten 3240 MHz und meine mit 317 W (stock, nix Takt-OC) erzielten 3362 MHz sehr wohl eine stolze Leistung und du sprichst zu Recht von einer Hammer Karte.
OgrEGT
2025-05-19, 17:11:15
Wieso warten auf ein Tool, den Programmer gibts für unter 10€.
https://www.igorslab.de/grafikkarten-bios-fuer-dummies-frank-erklaert-im-video-den-cha341-und-wie-man-eeproms-ganz-entspannt-von-hand-flasht-igorslabhome/
Sieht eigentlich entspannt und easy aus...
Ich würds aber trotzdem nur mit Dual BIOS machen :)
Soweit ich weiß, gibt es immer noch kein Tool um bei den aktuellen (7000+) AMD GPUs ein BIOS zu flashen, welches nicht für die Grafikkarte vorgesehen ist. Dafür benötigt man ein Hardware Programmer wie den C341A.
https://www.youtube.com/watch?v=MRr6c68ZyI0&t=311
Und was ist da die Erwartung? Freigeschaltete CUs oder nur höherer Boost / Powerlimit?
OCmylife
2025-05-19, 18:30:04
Und was ist da die Erwartung? Freigeschaltete CUs oder nur höherer Boost / Powerlimit?
Durch das höhere Powerlimit taktet die Karte auch dementsprechend höher und der Performancegewinn ist laut Tests auch nicht zu verachten. Die CUs lassen sich durch den Biosflash allerdings nicht reaktivieren.
Da bin ich ganz deiner Meinung. Wenn PowerColor, der Hersteller unserer Hellhound 9070XT, für Standard/Silent einen maximalen Boost-Takt von 2970 MHz und für OC einen maximalen Boost-Takt von 3010 MHz angibt (Siehe Specifications-Screenshot), dann sind deine mit 260 W (PL -18%, nix Takt-OC) erzielten 3240 MHz und meine mit 317 W (stock, nix Takt-OC) erzielten 3362 MHz sehr wohl eine stolze Leistung und du sprichst zu Recht von einer Hammer Karte.
Wie auch immer die einzelnen Hersteller auf ihre "up to xyz MHz" kommen, maximal sind soweit ich weiß bei jeder 9070XT 3450MHz als Max Frequenz hinterlegt (HWinfo unter "GPU Clock Frequenzy Limit").
dargo
2025-05-20, 06:54:19
Korrekt... deshalb kann ich diese "Freudeausbrüche" nicht wirklich nachvollziehen. Sollte jedem klar sein, wenn ein Workload X nicht zu stark heizt, sprich der Verbrauch nicht limitiert, die Karte einfach höher boostet.
G3cko
2025-05-20, 11:29:45
Habe ich was verpasst. Laut CB sind maximal 8% durch OC + undervolting drin gegenüber Referenz. Ob ich nun mit 25 oder 27 fps in der unspielbarkeit rumdümpel...
phoenix887
2025-05-20, 11:37:21
Habe ich was verpasst. Laut CB sind maximal 8% durch OC + undervolting drin gegenüber Referenz. Ob ich nun mit 25 oder 27 fps in der unspielbarkeit rumdümpel...
Genau deswegen habe ich mich vom OC verabschiedet. Baue meine Karte ein und zocke los in meiner Freizeit. Keine Lust mehr auf Gefrickel und bei jeder neue Engine Stabilitätstest durch zuführen.
Rentner
2025-05-20, 11:55:01
Um die Temperaturen und Lüfterdrehzahlen unten zu halten, kann oder sollte man aber das UV-Potential ausloten. Das dadurch auch der Takt steigt, ist ein Bonus den man mitnehmen kann. Wenn man das nicht will, nimmt man das Powertarget auch noch runter und es ist kühl und ruhig im Karton. Was dann aber auch ~6-10% kosten kann.
Manchmal helfen ein paar Prozent um die FPS konstant auf die jeweilige Monitorfrequenz anzuheben. Ohne die Qualität runter drehen zu müssen.
Natürlich ist bei sowieso niedrigen FPS, übertakten auch nicht mehr besonders hilfreich
Der_Korken
2025-05-20, 12:01:49
Wem Lautstärke und Abwärme im Zimmer nicht egal sind, der holt schon lange nichts mehr durch OC raus. Die letzte Karte, die ich wirklich OCed habe, war glaube ich eine Radeon HD 7950 (2012) und mit Abstrichen vielleicht noch eine RX470 (2016). Wobei bei letzterer eigentlich auch schon UV das Hauptziel war. Die OC-Zeiten werden auch nie mehr zurückkommen.
Bismarx
2025-05-20, 15:22:41
Wem Lautstärke und Abwärme im Zimmer nicht egal sind, der holt schon lange nichts mehr durch OC raus. Die letzte Karte, die ich wirklich OCed habe, war glaube ich eine Radeon HD 7950 (2012) und mit Abstrichen vielleicht noch eine RX470 (2016). Wobei bei letzterer eigentlich auch schon UV das Hauptziel war. Die OC-Zeiten werden auch nie mehr zurückkommen.
Würde ich so pauschal nicht unterschreiben. Mit meiner 9070 XT habe ich tatsächlich nur UV und -PT betrieben. OC mit höherem PT verschlechtert FPS/Watt übermäßig.
Besäße ich allerdings eine 5060 Ti 16 Gb, z.B., dann würde ich auch etwas mehr Abwärme in Kauf nehmen - denn für 20% mehr Leistungsaufnahme gibt es angeblich knapp 18% mehr FPS. Ist für mich übrigens in der 400-500€-Klasse eine der interessantesten Karten derzeit.
dargo
2025-05-20, 15:25:48
Wem Lautstärke und Abwärme im Zimmer nicht egal sind, der holt schon lange nichts mehr durch OC raus. Die letzte Karte, die ich wirklich OCed habe, war glaube ich eine Radeon HD 7950 (2012) und mit Abstrichen vielleicht noch eine RX470 (2016). Wobei bei letzterer eigentlich auch schon UV das Hauptziel war. Die OC-Zeiten werden auch nie mehr zurückkommen.
Was willst du da auch noch übertakten wenn die Hardware schon übertaktet ausgeliefert wird? :tongue:
Wiseman
2025-05-20, 15:36:48
Wie auch immer die einzelnen Hersteller auf ihre "up to xyz MHz" kommen, maximal sind soweit ich weiß bei jeder 9070XT 3450MHz als Max Frequenz hinterlegt (HWinfo unter "GPU Clock Frequenzy Limit").
Die Hersteller scheinen ziemlich ahnungslos zu sein. Die sollten regelmäßig in dieses Forum reinschauen. Hier wimmelt es nur so von Experten.
dargo
2025-05-20, 16:16:51
Die Hersteller scheinen ziemlich ahnungslos zu sein. Die sollten regelmäßig in dieses Forum reinschauen. Hier wimmelt es nur so von Experten.
Eher sind manche Konsumenten hier ahnungslos. ;)
Die max. Boostfrequenzen (die offiziellen Angaben) der jeweiligen AIBs und natürlich auch die Referenzvorgabe von AMD bezieht sich immer auf einen speziellen Workload oder einen Schnitt selbst ausgesuchter Workloads. Ist nun wirklich keine neue Erfindung.
G3cko
2025-05-20, 21:55:15
Toll, ich habe mir die Taichi nur gekauft, weil es gesichert einen Block geben wird. Heute eingebaut und nun sehe ich dass es auch einen Block für die Mercury geben wird. Manchmal hasse ich mein Leben...
Warum so überrascht? Warum nicht den Hersteller anschreiben? Man kann ja sogar eine GPU einsenden und bekommt kostenlos einen Kühler. Bei mir wird es die Mercury. Die Swift hat nur 2 Jahre Garantie.
Die Hersteller scheinen ziemlich ahnungslos zu sein. Die sollten regelmäßig in dieses Forum reinschauen. Hier wimmelt es nur so von Experten.
Naja ist ja offensichtlich eine Falschangabe von Powercolor wie du ja selber bestätigst.
Daher weiß ich nicht warum Hersteller das überhaupt angeben und nicht nur den typischen Game Takt (aus einem durchschnitt an verbreiteten Spielen/Settings).
Engine Clock(OC)
up to 2460MHz(Game)¹
up to 3010MHz(Boost)²
Engine Clock(STD/Silent)
up to 2400MHz(Game)¹
up to 2970MHz(Boost)²
¹Game Clock is the expected GPU clock when running typical gaming applications, set to typical TGP (Total Graphics Power). Actual individual game clock results may vary.
²Boost Clock is the maximum frequency achievable on the GPU running a burstyworkload. Boost clock achievability, frequency, and sustainability will vary based on several factors, including but not limited to:thermal conditions and variation in applications and workloads.
Tesseract
2025-05-21, 13:09:00
gibt es eigentlich schon einen konsensus welche XT ohne gefrickel (maximal bios switch umlegen) bzgl. lärm die besten sind?
dildo4u
2025-05-21, 13:13:46
gibt es eigentlich schon einen konsensus welche XT ohne gefrickel (maximal bios switch umlegen) bzgl. lärm die besten sind?
Übersicht aber vermutlich nicht alle Modelle.
https://www.computerbase.de/artikel/grafikkarten/powercolor-rx-9070-xt-red-devil-hellhound-test.92205/seite-2#abschnitt_lautstaerke_unter_last
dargo
2025-05-21, 14:37:19
gibt es eigentlich schon einen konsensus welche XT ohne gefrickel (maximal bios switch umlegen) bzgl. lärm die besten sind?
Findest du die custom Lüftersteuerung im Grafiktreiber zu kompliziert? :) Ansonsten ist CB eine gute Anlaufstelle diesbezüglich, hat ja dildo schon verlinkt. Imho sind Pulse XT und Hellhound XT die besten diesbezüglich. Preislich sehen beide aktuell auch relativ ok aus.
Spring
2025-05-21, 15:03:54
gibt es eigentlich schon einen konsensus welche XT ohne gefrickel (maximal bios switch umlegen) bzgl. lärm die besten sind?
Moderator im 3DC und scheitert an einer Lüfterkurve.
Hier kommen Sachen, die gabs Dekaden nicht.
Generell scheint die Pulse die Karte zu sein, wo man wg Lautstärke einfach nur die Karte einstecken muss und los.
Hab mittleweile 3 Profile per klick für die Mercury Gaming OC (PT-30%/stock/PT+10% inkl angepasster Lüfterkurve) und würde keine andere Karte nehmen wollen (nix Spulenfiepen, super leise und bei Bock bis zu 363W^^), aber das ist ja bei jedem anders.
Exxtreme
2025-05-21, 15:10:35
Moderator im 3DC und scheitert an einer Lüfterkurve.
Hier kommen Sachen, die gabs Dekaden nicht.
Lüfterkurve anpassen ist keine generelle Lösung. Bei meiner alten RX5700XT musste ich die Lüfter sogar schneller laufen lassen als Standard. Ansonsten erreichte die GPU über 100° C und dann quittierte sie den Dienst mit einem schwarzen Bildschirm. Hätte ich die Lüfter auf "leiser" gestellt dann wäre Spielen gar nicht möglich.
Von daher sind Grafikkarten, die von sich aus leise sind, viel besser als Lüfterkurvengefrickel.
Spring
2025-05-21, 15:17:02
Lüfterkurve anpassen ist keine generelle Lösung. Bei meiner alten RX5700XT musste ich die Lüfter sogar schneller laufen lassen als Standard. Ansonsten erreichte die GPU über 100° C und dann quittierte sie den Dienst mit einem schwarzen Bildschirm.
Von daher sind Grafikkarten, die von sich aus leise sind, viel besser als Lüfterkurvengefrickel.
Also ich weiss nicht was das für ein Gefrickel sein soll die Lüfterkurve von default auf eigene Wünsche anzupassen. Das dauert keine 5min und ist flexibler als der olle DIP schalter (wie früher IRQs einstellen). Sollte für niemand hier eine Raketenwissenschaft sein (vor allem wenn schon Dekaden aktiv), bin da gerade auch sehr erstaunt. Vllt ist es ja bei Nvidia anstrengender oder aufwändiger, kp.
Und mehr RPM musste ich nur geben, wenn die Karte verschmockt war (Staub o.ä.) oder OC, sonst nie: immer runtergedreht. Profil save mit einem Klick bei AMD. wenn ändern mit 1-2 Klicks anderes Profil laden fertig.
Aber gut.
Tesseract
2025-05-21, 15:33:20
Findest du die custom Lüftersteuerung im Grafiktreiber zu kompliziert?
es geht nicht um mich, ich hab eine 4090. ein bekannter will demnächst aufrüsten und der ist erstens windows/linux dualboot unterwegs und wird zweitens zu 100% nicht an der lüftersteuerung drehen.
nairune
2025-05-21, 15:39:49
Muss man das nicht mehr nach jedem Treiberupdate und -crash neu laden? Kann ich schon verstehen, wenn man da nicht unbedingt immer dran denken müssen will.
Spring
2025-05-21, 15:42:51
es geht nicht um mich, ich hab eine 4090. ein bekannter will demnächst aufrüsten und der ist erstens windows/linux dualboot unterwegs und wird zweitens zu 100% nicht an der lüftersteuerung drehen.
Hatte ich auch bei einem Freund mit einer 7800XT.
Hab ihm zwei Profile auf dem Desktop geklatscht mit silent und OC.
Selbst er schafft das.
Muss man das nicht mehr nach jedem Treiberupdate und -crash neu laden? Kann ich schon verstehen, wenn man da nicht unbedingt immer dran denken müssen will.
Das ist korrekt. Aber auch hier: s.o.
Wenn man das nicht weiß oder gezeigt bekommt, dann ist natürlich mist, weil nach Update/crash default (was ja auch nicht jeden Tag vorkommt).
dargo
2025-05-21, 17:34:01
Also ich weiss nicht was das für ein Gefrickel sein soll die Lüfterkurve von default auf eigene Wünsche anzupassen. Das dauert keine 5min und ist flexibler als der olle DIP schalter (wie früher IRQs einstellen). Sollte für niemand hier eine Raketenwissenschaft sein (vor allem wenn schon Dekaden aktiv), bin da gerade auch sehr erstaunt. Vllt ist es ja bei Nvidia anstrengender oder aufwändiger, kp.
Ich frage mich auch gerade was an der custom Lüftersteuerung im AMD Grafiktreiber Gefrickel sein soll? :freak: Da werden fünf Punkte nach eigenem Wunsch gestellt, das wars. Ist sogar viel besser als dieses unnötige "Aufheulen" der Stock Lüfterkurven.
es geht nicht um mich, ich hab eine 4090. ein bekannter will demnächst aufrüsten und der ist erstens windows/linux dualboot unterwegs und wird zweitens zu 100% nicht an der lüftersteuerung drehen.
Ok, dann wie schon gesagt Pulse XT oder Hellhound XT.
Tesseract
2025-05-21, 19:10:09
Hatte ich auch bei einem Freund mit einer 7800XT.
Hab ihm zwei Profile auf dem Desktop geklatscht mit silent und OC.
Selbst er schafft das.
so ein murks kommt für ein system mit dem ich wahrscheinlich 5+ jahre nicht mehr interagieren werde - falls ich beim einbau überhaput dabei bin - absolut nicht in frage.
Ok, dann wie schon gesagt Pulse XT oder Hellhound XT.
danke, kommt in die auswahl.
kennt jemand die TUF mit quiet bios?
dargo
2025-05-21, 19:23:24
Hat CB im verlinkten Test, imho lohnt nicht... Aufpreis und Größe.
Mordekai2009
2025-05-21, 19:36:04
Nach vielen Recherche bin ich auf Radeon RX 9070 gestoßen, nicht den XT. Wenn ich den mit RTX 4060 Ti 16GB vergleiche, ist RX 9070 in Raster-Grafik doppelt so schnell. In Raytracing je nach Spiel von 60% bis 100% schneller. Für mein 550W Netzteil könnte es knapp werden, sollte es aber in Theorie laufen. Ist ja nur... 55 Watt mehr im Volllast.
Über 650€... eine schwierige Entscheidung.
dargo
2025-05-21, 19:37:59
Nach vielen Recherche bin ich auf Radeon RX 9070 gestoßen, nicht den XT. Wenn ich den mit RTX 4060 Ti 16GB vergleiche, ist RX 9070 in Raster-Grafik doppelt so schnell. In Raytracing je nach Spiel von 60% bis 100% schneller. Für mein 550W Netzteil könnte es knapp werden, sollte es aber in Theorie laufen. Ist ja nur... 55 Watt mehr im Volllast.
Über 650€... eine schwierige Entscheidung.
Ach was... die non XT ist Spielzeug für ein 550W NT. Beeil dich, denn noch ca. 4 Stunden lang bekommst die Hellhound non XT für 616€.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13760469&postcount=1210
Mordekai2009
2025-05-21, 19:42:34
Steht jetzt bei 649€. Bin zu spät dran. Es ist Zeit, nach passenden non-OC Grafikkarten zu suchen. Ich hol mir 'ne Tasse Tee...
dargo
2025-05-21, 19:43:10
Du musst dafür Shoop verwenden. Dort gibt es 6% noch bis Ende des Tages auf den Nettowarenwert. ;)
https://www.shoop.de/cashback/galaxus/aktion-17069
Mordekai2009
2025-05-21, 19:57:56
Ich möchte nicht aber vielen Dank dafür. :)
EDIT:
Gefunden...
PowerColor Reaper Radeon RX 9070 16GB
Kein Schnickschnack, kein OC, 2-slot Design und leicht. Abwarten und weiter beobachten... Mindfactory hat dieses Produkt nicht (vmtl ausgeblendet?) und Proshop hat es nicht aufs Lager. Habe kein Zeitdruck. Warten lohnt sich immer.
Haarmann
2025-05-22, 08:49:38
Mordekai2009
In CH auch bei Alternate gesichtet ...
Ist auch noch da - ziemlich günstig aber eben Vanilla Karte
GerryB
2025-05-22, 14:52:34
Also meine 9070 Hellhound XT machte heute bei The Last of US II
Stolze 3130 bis gar 3240 Mhz mit beim Game und Lüfter mit maximal 1410 U/ min
bei Powerlimit Minus 18 Prozent und Hotspot max. 73 Grad, Speicher 84 Grad, teilweise maximal 86 Grad.
Falls Du irgendwann mal nicht nur mit 220W spielst, sondern 350W brauchst, denk mal über einen ordentlichen Airflow nach.
Du hast doch immer noch den "geschlossenen" Glaskasten aus R VII - Zeiten.
auf der Computex gibts krasse neue Gehäuse mit 40mm dicken 180er Lüftern
https://overclock3d.net/news/cases_cooling/havn-have-new-h-series-pc-fans-and-theyre-thick/
die zug. CPU mit AiO, damit das ganz spezielle Airflowkonzept passt, die CPU der GPU nicht die Luft nimmt
(im Video anschauen)
edit:
auch ohne AiO gehts gut mit den original installierten 4x180
https://gamersnexus.net/cases-news/noctua-has-competition-havn-performance-fans-bf360-case-engineering-data
Bismarx
2025-05-23, 10:40:15
Gefunden...
PowerColor Reaper Radeon RX 9070 16GB
Kein Schnickschnack, kein OC, 2-slot Design und leicht. Abwarten und weiter beobachten...
...ich besitze diese Karte in der XT-Variante. Einziger Unterschied, außer dem Chip natürlich, ist ggü. der non-XT, dass der Kühler eine Kupferbasis hat. Bin zufrieden: Temperaturen und Lautstärke völlig i.O. - trotz 2-Slot-Design des Kühlers. Kein Spulenfiepen - direkt nach der Inbetriebnahme fiepte sie allerdings sehr stark. Das hat sich dann nach kurzem (paar Stunden) "Einbrennen" komplett verflüchtigt. Keine Ahnung warum.
Allerdings: Zum selben Preis würde ich heute wohl dennoch eher zur Saphire Pulse greifen - wenn Platz im Gehäuse kein Thema ist.
Mordekai2009
2025-05-24, 13:58:48
Doch entschieden für Sapphire Pulse Radeon RX 9070 16GB und gerade bestellt bei Mindfactory.
Mein letzter Sapphire war ein Radeon 9500 Pro 128MB DDR AGP. Jetzt heißt es nur noch ein paar Tage warten weil es Wochenende ist.
GerryB
2025-05-27, 20:17:52
btw.
Im Luxx will Mantiz ne preiswerte customh2o anpassen.
sieht schonmal net schlecht aus, ... hoffe, er erzählt noch mehr, welches Teil und wie angepasst
(ist ne Hellhound bei Ihm)
dargo
2025-05-28, 13:19:33
So viel zum Thema kein Spulenfiepen bei einer Hellhound XT.
Von MF...
Karte macht einen wertigen Eindruck. Meine hat sogar Samsung Speicher verbaut der immer unter 80 Grad bleibt.
Die GPU selbst geht bei anspruchsvollen Spielen bei mir leider bis auf 90 Grad hotspot hoch . (max 58 Grad edge). Da hatte ich nach den positiven Tests weniger delta erhofft. Die Lüfter bleiben dabei sehr ruhig
Verbaut in voll mit Lüftern bestückten gut belüfteten Torrent Compact. ( ca. 1mm Platz zwischen Karte und Frontlüfter, Karte ist also eher 329mm lang oder das Gehäuse hat 2mm weniger Platz als angegeben ^^)
Leider hat meine Karte auch sehr deutliches Spulenfiepen. Da der PC unter dem Tisch auf dem Boden steht komme ich damit klar aber wenn der auf dem Tisch direkt neben mir wäre, wäre mir das zu übel.
Verwendetes Netzteil ist übrigens ein 850 W Pure Power 12 M - kann mir also nicht vorstellen das es am Netzteil liegt.
Ich werde die Karte behalten aber ich schätze heutzutage braucht man beim kauf schon etwas Glück damit alles stimmt.
Das ist reinste Lotterie und ich hoffe ich werde mit diesem scheiß auch noch nicht belästigt. Dann geht die Retourekacke wieder von vorne los. :mad:
Lurtz
2025-05-28, 13:26:25
Hab ich schon vor Monaten hier geschrieben, dass die Karte mit meinem 850 Watt Netzteil wie blöd fiept.
dargo
2025-05-28, 13:31:23
Ich kann nicht alles behalten. :usad:
Mordekai2009
2025-05-31, 13:28:14
Ich bin mit der Leistung eines Radeon RX 9070 16GB sehr zufrieden. Größenteils doppelte Leistung gegenüber Geforce RTX 4060 Ti 16GB.
Interessant: 3x FPS in Talos Principle 2 wenn dieses Spiel auf 4K FSR/DLSS native (+ Frame generation) läuft mit maximalen Grafikeinstellungen. Ging von 20 auf 57 FPS. Geforce RTX 4060 Ti 16GB hatte Probleme, die Daten so performant wie möglich zwischen VRAM und RAM zu swappen... mit zusätzlichen Einschränkung durch PCIe 4.0 x8 Bus, lieg am Ende bei ingesamt 19.1 GB VRAM. Für Radeon war es einfacher und verbrauchte am Ende 2GB VRAM weniger obwohl es sehr performant lief, ab und zu mal kleine Ruckler.
horn 12
2025-06-01, 16:43:28
Falls Du irgendwann mal nicht nur mit 220W spielst, sondern 350W brauchst, denk mal über einen ordentlichen Airflow nach.
Du hast doch immer noch den "geschlossenen" Glaskasten aus R VII - Zeiten.
auf der Computex gibts krasse neue Gehäuse mit 40mm dicken 180er Lüftern
https://overclock3d.net/news/cases_cooling/havn-have-new-h-series-pc-fans-and-theyre-thick/
die zug. CPU mit AiO, damit das ganz spezielle Airflowkonzept passt, die CPU der GPU nicht die Luft nimmt
(im Video anschauen)
edit:
auch ohne AiO gehts gut mit den original installierten 4x180
https://gamersnexus.net/cases-news/noctua-has-competition-havn-performance-fans-bf360-case-engineering-data
Ja, exakt mein nächstes Gehäuse,- wurde sofort aufmerksam darauf.
Obwohl die Front erst mal zu gewöhnen ist.
Steht ja im Herbst ein Komplett NEUER Rechner an zusammen mit jetziger Hellhound 9070 XT wird dann aber übernommen
Und ja, hast Recht werkelt immer noch das Thermaltake View 27 in meinem Derzeitigem Rechner.
Bei normalen Temperaturen, reicht definitiv ein guter Luftkühler. Aber bei einer Zimmertemperatur von ~29°C, ändert sich eigentlich alles. Dann lässt sich auch eine 9070 nicht mehr gut kühlen, wenn man auf max. Performance geht. Habe mir gerade den AC-Block bestellt, da er offensichtlich in 11 Tagen zum Versand bereit steht.
dargo
2025-06-03, 12:59:46
@Korken
Ich habe gerade in der Schublade genau das gefunden was du suchst, das lag schon viele Jahre da drin. :tongue:
93194
Wenn ich das noch richtig im Kopf habe hatte ich mir damals aus China sowas auf Reserve liefern lassen. Damals noch für knapp über 1€. :D Liegt immer noch original verpackt rum. :tongue:
Edit:
Bei der Pulse XT kommt man an den Lüfteranschluss auch super dran. :)
https://gzhls.at/i/99/91/3429991-l0.webp
Ich gehe aber mal davon aus, dass es bei der Pulse XT gar nicht nötig ist.
GerryB
2025-06-05, 16:50:58
die Prime für 639€ tuts auch
dargo
2025-06-05, 17:30:33
Das ist der Review-Thread.
GerryB
2025-06-05, 19:02:04
Und ?
von der Prime hört man auch nur Gutes!
ggf.
kann man die unter Wasser setzen und mit Taichi-Bios betreiben ala Oese vom Luxx
dargo
2025-06-05, 19:27:14
Und ?
von der Prime hört man auch nur Gutes!
Wo denn? Oder ist "ist etwas laut" mittlerweile was Gutes? :freak:
ggf.
kann man die unter Wasser setzen und mit Taichi-Bios betreiben ala Oese vom Luxx
Noch nerdiger gehts nicht? :tongue:
GerryB
2025-06-05, 23:37:01
ewig nur dieselben Fragen von denselben Leuten zu min Lü.rpm sind seitenfüllend langweilig (Computerbildniveau)
die Prime hat anscheinend ein ausreichend gutes PCB+Spawas, um mal ein bisschen mehr Spaß haben
zu können
wenn dann noch so ein Schnäppchenpreis offeriert wird, bleibt genug Geld für nen Waterblock
dargo
2025-06-06, 06:24:16
ewig nur dieselben Fragen von denselben Leuten zu min Lü.rpm sind seitenfüllend langweilig (Computerbildniveau)
Ewig nur falsche Behauptungen zu vermeitlich guten Karten die gar nicht gut sind, das ist Computerbildniveau. :rolleyes: Gewöhn dich dran, dass manche höhere Ansprüche an einen Grafikkarten-Luftkühler haben als du selbst. Entsprechend ist die Suche dann nach dem besten Produkt innerhalb der gleichen SKU schwieriger. Und eigentlich nur weil AMD so schlau war nach RDNA2 "Blackboxes" zu bauen. :P
DrFreaK666
2025-06-06, 06:50:53
@dargo: Du weißt doch nicht ob die Lüfter für dich gut sind, wenn sie selbst nicht gehört hast.
Da sind Aussagen anderer dann auch eher unnütz
OgrEGT
2025-06-06, 06:54:31
Wie wärs denn wenn jeder jedem seine Meinung lässt? Zumal in diesem Fall sich beides nebeneinander gut ergänzt?
dargo
2025-06-06, 07:02:48
@dargo: Du weißt doch nicht ob die Lüfter für dich gut sind, wenn sie selbst nicht gehört hast.
Da sind Aussagen anderer dann auch eher unnütz
Was wäre denn die Alternative? Ich bestelle mir jetzt mal frei Schnauze gleichzeitig drei bis fünf verschiedene XTs und behalte dann die mit dem besten Kühler? Auf den Quatsch habe ich gar keinen Bock drauf. Die grobe Richtung leite ich mir schon aus den CB-Messungen ab. Was immer fehlt sind halt die Angaben zu min. RPM. Sowas testet leider kein Reviewer, wofür ich natürlich Verständnis habe. Schließlich werden Reviews mit Stock-Settings durchgeführt.
btw.
Was wieder genial bei der Steel Legend ist... man kommt wunderbar an den Lüfteranschluss dran für eine Modifikation.
https://i.postimg.cc/BttYxqZC/Steel-Legend.jpg (https://postimg.cc/BttYxqZC)
DrFreaK666
2025-06-06, 08:45:53
Was bringen dir min-rpm? Das skaliert ja nicht linear
dargo
2025-06-06, 09:34:59
Wofür brauche ich eine lineare Skalierung bei RPM? :freak: Es geht doch darum, dass die min. RPM etwas gesenkt werden sollen, dadurch klaue ich logischerweise auch oben rum bzw. bei max. RPM etwas Drehzahl. Das ist aber komplett wayne für eine custom Lüftersteuerung. Ich brauche eh nicht mehr als ca. 1.200RPM weil meine Graka-Lüfter nie schneller laufen müssen und auch nicht sollen. Für mich persönlich ist nur der Bereich von ca. 600-1.200RPM über die gesamte Lüfterregelung interessant.
GerryB
2025-06-07, 00:38:52
btw.
Im Luxx will Mantiz ne preiswerte customh2o anpassen.
sieht schonmal net schlecht aus, ... hoffe, er erzählt noch mehr, welches Teil und wie angepasst
(ist ne Hellhound bei Ihm)
habe Ihn mal gefragt:
dargo
2025-06-07, 06:41:40
Sind hier irgendwelche Probleme mit VRR und N48 bekannt? Ich frage deshalb weil aufkrawall davon mir berichtet hat und das verunsichert mich jetzt total. Bei ihm ging es speziell um die ASUS Prime RX 9070 non XT. Aber es kann ja eigentlich nicht nur eine spezielle Karte betroffen sein, das müsste schon jeden N48 betreffen, zb. durch kaputten Treiber. Alles andere macht für mich wenig Sinn. Achja... die Prime non XT hat als min. Drehzahl 580RPM laut aufkrawall.
DeadMeat
2025-06-07, 10:42:18
Keine Probleme bisher mit VRR, hab ich auch sonst noch nirgendwo gelesen im bezug auf 9070er.
Seit der RDNA4 kann ich sogar VRR auf dem OLED benutzen bisher ohne Probleme.
Klingt eher nach einer kaputten Treiber installation oder gar Karte, meine 5070ti kam zb auch mit dem PCIE5+Display Port fehler.
Andron
2025-06-07, 10:57:56
Sind hier irgendwelche Probleme mit VRR und N48 bekannt? Ich frage deshalb weil aufkrawall davon mir berichtet hat und das verunsichert mich jetzt total. Bei ihm ging es speziell um die ASUS Prime RX 9070 non XT.
Geht es um Microstuttering? Hatte einmal was im Bezug auf die Prime 9070XT diesbezüglich gelesen:
https://www.computerbase.de/forum/threads/asus-radeon-rx-9070-xt-dauernde-microruckler.2237843/
Kann ich nicht bestätigen, habe es gerade nochmal in LoU Part I, RDR 2, A Plague Tale Req., Cyberpunk und etc. getestet. Keine Probleme, weder Stock noch mit meinen UV Einstellungen.
Auch Optiscaler inkl. Antilag 2 hooking macht keinerlei Probleme in der Hinsicht.
dargo
2025-06-07, 11:47:25
Geht es um Microstuttering?
So genau weiß ich es nicht, ich habe das nur von aufkrawall über PN. Wortwörtlich "Bildausgabe mit VRR Schrott gegen RDNA3 oder GeForce". :tongue: Genaueres kann nur aufkrawall dazu sagen. Aber wenn ihr beide keine Probleme habt lege ich das als Einzelfall ab. Hätte mich auch gewundert, das Internet wäre eigentlich voll davon.
DeadMeat
2025-06-07, 12:45:35
Das was da im CB forum beschrieben ist hatte ich manchmal wenn der Treiber nicht vernünftig installiert wurde, spätestens nach einem Werkseinstellungs neu Install war es weg. Hatte ich aber schon eine Weile nicht mehr.
Gegenüber RNDA3 gibts jedenfalls keine Verschlechterung (im OLED Fall hier nur besser) hier. Die Frametimes sind io.
Im Vergleich zum RDNA3 Release finde ich die 4er bisher deutlich besser zum Start.
dargo
2025-06-09, 14:16:33
Aus dem Verfügbarkeitsthread....
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13769492#post13769492
Kein Stress @DrFreaK666. Und bevor du überhaupt anfängst müssen wir wie gesagt exakte Vergleichbarkeit mit den Benchmarks aus dem Netz gewährleisten können, ansonsten ist deine Arbeit umsonst.
Edit:
Ich glaube am besten wäre wenn du dich an den Benchmarks der PCGH orientierst da die PCGH meine ich auch immer das passende Savegame inkl. Erklärungsvideo zum Benchmark liefert. Wo man das allerdings alles bei der PCGH findet weiß ich nicht. :redface:
DrFreaK666
2025-06-09, 14:44:53
Ich schau später mal bei PCGH
dargo
2025-06-09, 15:11:32
Super, danke. :)
Ich verspreche mir von der non XT eigentlich mehr bei diesem Thema weil die XT einfach weiter oben in der F/V-Kurve arbeitet und somit an der "Kotzgrenze". Bei gleicher Chipgüte müsste eigentlich eine non XT besseres UV liefern. Und bei einer non XT hängst du auch etwas weniger an der Bandbreite.
Edit:
Nee... Moment, da hatte ich einen Denkfehler.
Bei gleicher Chipgüte und beide @250W sollte das UV bei der XT doch etwas besser gehen. Schließlich taktet dann die XT mit etwas weniger Frequenz weil die zusätzlichen 8CUs mehr heizen.
F5.Nuh
2025-06-11, 00:02:27
Ich habe die Hellhound nun ein paar Tage eingebaut und nur etwas getestet.
Ich betreibe Sie nun bei -60mV, PT 0%, Speicher 2600mhz Fast Timing.
Je nach Spiel läuft die Karte zwischen ca. 3000mhz - 3300mhz
Was würdet ihr empfehlen um die Stabilität zu testen? Aktuell stürzt nichts ab oder ähnliches.
Nomad scheint nicht kostenlos zu sein?! Hätte das sonst mal getestet.
raffa
2025-06-11, 00:19:44
Immer weiter reduzieren, bis irgendwas einfriert, den gpu reset auslöst. Dann wars zu viel, dann gehst auf leicht wieder hoch und schaust obs rennt. Wenns nochmal hängt, nochmal hoch. So mach ich das jedenfalls.
Man kann so auch recht leicht zu halbwegs sicheren Ergebnissen kommen. Wenn irgendeine Software die Spannungsabsenkung nicht zu vertragen scheint, dann überprüft man das mit default, wens dann rennt, liegts wahrscheinlich an den manipulierten Einstellungen und man hat einen guten Testcase für den voltage offset gefunden
Der_Korken
2025-06-11, 00:25:45
Stabilität scheint extrem stark vom Spiel abzuhängen, d.h. es gibt kein Setting, dass überall stabil ist ohne Potential zu verschenken. Das zickigste Spiel bei mir war das mittlerweile in die Jahre gekommene Vermintide 2, welches selbst mit -60mV reproduzierbar crashed, wenn man ein paar Brandgranaten wirft. Der Takt lag durch mein reduziertes Powertarget sogar unter 2800Mhz zu dem Zeitpunkt, d.h. da hilft auch kein negatives Takt-Offset. Andere Spiele dagegen laufen auch mit -100mV und >3Ghz Takt problemlos. Das ebenfalls betagte Witcher 3 läuft auch nur mit -65mV stabil und krebst irgendwo bei <2700Mhz rum. Es ist also mitnichten so, dass bevorzugt die neuen Spiele mit viel RT crashen und alter Kram problemlos läuft. Ich glaube, man sollte eher konservativ irgendwas um die -60mV anpeilen und selektiv einzelne Spiele manuell optimieren, wenn man diese oft spielt und dort Leistung fehlt.
Im Übrigen hatte ich damals durch das GPU-Z-Logging herausgefunden, dass die Hellhound XT im Silent-BIOS ca. 10mV weniger Spannung bei gleichem Takt anlegt gegenüber dem OC-BIOS. Das sollte man bedenken, wenn man die eigenen UV-Ergebnisse mit anderen vergleicht. Eventuell haben die 340W-Karten eine noch aggressivere V/f-Kurve, sodass diese quasi etwas overvolted sind und dadurch auf dem Papier natürlich mehr UV schaffen.
Hatte ich hier glaube ich schon mal geschrieben. Bei mir war es Diablo 4, das selbst mit -40mV (danach kein Bock mehr gehabt weiter zu testen) zum Treiber Reset geführt hat, obwohl vorher alles mit -70mV stabil war. Aber Diablo 4 ist auch technisch ziemlicher Schrott muss man dazu sagen. :wink:
GerryB
2025-06-11, 07:28:18
Passiert das eigentlich in D4 mit oder/und ohne RT ?
Hübie
2025-06-11, 09:33:28
Hab ich schon vor Monaten hier geschrieben, dass die Karte mit meinem 850 Watt Netzteil wie blöd fiept.
Ich habe ein Be Quiet Dark Power 850 und im Regelbetrieb kein Spulenfiepen. Kann man also nicht verallgemeinern.
Als ich damals von meinem Enermax Revolution87+ 1000W auf das Be Quiet Netzteil wechselte, ging auch das Zirpen bei meiner damaligen 6800XT (MBA) weg. Also liegt es wohl eher an dem Modell und weniger an der Leistung (1000 vs. 850 Watt).
Lurtz
2025-06-11, 09:58:41
Im Gegensatz zu Leuten die angeblich fiepfreie Modelle empfehlen, habe ich keine Allgemeingültigkeit erhoben :)
Master3
2025-06-11, 10:18:09
Stabilität scheint extrem stark vom Spiel abzuhängen, d.h. es gibt kein Setting, dass überall stabil ist ohne Potential zu verschenken. Das zickigste Spiel bei mir war das mittlerweile in die Jahre gekommene Vermintide 2, welches selbst mit -60mV reproduzierbar crashed, wenn man ein paar Brandgranaten wirft. Der Takt lag durch mein reduziertes Powertarget sogar unter 2800Mhz zu dem Zeitpunkt, d.h. da hilft auch kein negatives Takt-Offset. Andere Spiele dagegen laufen auch mit -100mV und >3Ghz Takt problemlos. Das ebenfalls betagte Witcher 3 läuft auch nur mit -65mV stabil und krebst irgendwo bei <2700Mhz rum. Es ist also mitnichten so, dass bevorzugt die neuen Spiele mit viel RT crashen und alter Kram problemlos läuft. Ich glaube, man sollte eher konservativ irgendwas um die -60mV anpeilen und selektiv einzelne Spiele manuell optimieren, wenn man diese oft spielt und dort Leistung fehlt.
Im Übrigen hatte ich damals durch das GPU-Z-Logging herausgefunden, dass die Hellhound XT im Silent-BIOS ca. 10mV weniger Spannung bei gleichem Takt anlegt gegenüber dem OC-BIOS. Das sollte man bedenken, wenn man die eigenen UV-Ergebnisse mit anderen vergleicht. Eventuell haben die 340W-Karten eine noch aggressivere V/f-Kurve, sodass diese quasi etwas overvolted sind und dadurch auf dem Papier natürlich mehr UV schaffen.
Die Erfahrung habe ich auch gemacht. Manchmal gehen recht hohe negative Voltage Offsets und manchmal eben nicht. Für paar Benchmarks kann man das ganze mal optimieren, aber für den Alltagsbetrieb ist das gefrickel viel zu nervig. Bisher läuft -50mV bei mir überall stabil. Ob ich da noch 1-2% rausholen kann ist mir egal, merkt man eh nicht.
Der_Korken
2025-06-11, 11:33:03
Die Erfahrung habe ich auch gemacht. Manchmal gehen recht hohe negative Voltage Offsets und manchmal eben nicht. Für paar Benchmarks kann man das ganze mal optimieren, aber für den Alltagsbetrieb ist das gefrickel viel zu nervig. Bisher läuft -50mV bei mir überall stabil. Ob ich da noch 1-2% rausholen kann ist mir egal, merkt man eh nicht.
-100mV ist gegenüber -50mV schon ein ordentlicher Sprung, wenn er denn läuft. Die Spannung liegt meist unter 1000mV, d.h. -50mV ergeben GPU-seitig einen Verbrauch von (1 - 50/1000)^2 = 90,5% bzw. sogar noch weniger, je nachdem wie weit die Spannung vorher unter 1000mV lag. Oder anders formuliert: -50mV bringen in dem Szenario mindestens 10% Verbrauchsreduktion. Gegenüber den Ryzens, die gerne mal mit 1,3 oder 1,4V laufen, hauen 50mV hier deutlich stärker rein.
Aber ja, der Aufwand ist immens. Ich mache das oft so, dass ich ein Spiel starte und alle paar Minuten das Offset um 5mV erhöhe, bis es crashed. Dann bleibe ich 20-25mV unter der letzten nicht-gecrashten Einstellung. Diese ist zwar nicht direkt getestet, aber die Stabilität nimmt gefühlt exponentiell zu mit niedrigerer Spannung. Das heißt, wenn x mV 5 Minuten stabil laufen, dann laufen (x+10)mV hoffentlich 500 Minuten stabil und (x+25)mV hoffentlich 500 Stunden stabil.
aufkrawall
2025-06-11, 11:39:57
Oder anders formuliert: -50mV bringen in dem Szenario mindestens 10% Verbrauchsreduktion. Gegenüber den Ryzens, die gerne mal mit 1,3 oder 1,4V laufen, hauen 50mV hier deutlich stärker rein.
Nur leider entsprechen eingestellte-50mV nicht realen -50mV bei der ausgelesenen Spannung, weil die Karte damit immer höher boostet und die reale Spannung somit weit weniger reduziert. Der höhere Takt bringt auch nicht im selben Maße Mehrperformance, die Effizienz steigt also kaum.
Kann man sich direkt sparen, es hatte hier so gut wie gar nichts an Effizienzgewinnen gebracht.
GerryB
2025-06-11, 12:16:33
So ein Quatsch!
Setz erstmal ein Fps-Limit und dann zeig vorher/nacher ohne/mit UVen.
aufkrawall
2025-06-11, 12:45:46
Mal wieder typischer GerryB-Quatsch. fps-Limit interessiert in dem Zusammenhang erstmal überhaupt nicht. Mal abgesehen davon, dass ich das auch getestet hatte, und UV für die tieferen Bereiche auf der Kurve überhaupt keinen Effekt hatte.
Bei ungelockten fps im GPU-Limit sieht das mit Default vs. -80mV eingestellt so aus:
https://s1.directupload.eu/images/250611/temp/3toiijq6.png (https://www.directupload.eu/file/d/8947/3toiijq6_png.htm) https://s1.directupload.eu/images/250611/temp/uqwbordj.png (https://www.directupload.eu/file/d/8947/uqwbordj_png.htm)
Einen Furz an Mehrtakt, bei gleichem Verbrauch. UV bei Radeons ist einfach für den Hintern. Bringt so gut wie gar nichts, oder ist in Spiel x plötzlich komplett instabil...
Passiert das eigentlich in D4 mit oder/und ohne RT ?
Ohne. Aber das war auch am Anfang dieser Season, wo es noch jeden Tag Stabilitäts und Crash Hotfixes gab. Würde also auch nicht ausschließen dass die Crashes auch teilweise daher kamen.
Habe wie gesagt das UV ganz rausgenommen wodurch die Treiber Timeouts dann auch weg waren.
Ich spiele momentan viel Gray Zone Warfare, und wenn man da crasht verliert man unter umständen sein komplettes Gear. Deshalb habe ich wenig Lust auf UV wenn es pro Spiel so krass unterschiedliche Grenzen gibt was noch stabil ist und was nicht.
Hakim
2025-06-11, 12:53:43
Müsste man dann immer mit minus Takt Offset entgegen halten wenn man UV betreiben will aber nicht möchte das es zusätzlich höher Takten soll?
aufkrawall
2025-06-11, 13:01:18
Müsste man dann immer mit minus Takt Offset entgegen halten wenn man UV betreiben will aber nicht möchte das es zusätzlich höher Takten soll?
Eingestellte -500MHz resultieren dann in realen -50Mhz und mit der real dann noch etwas niedrigeren Spannung dann in -10W, wenn das vorher in der Drosselung lief:
https://s1.directupload.eu/images/250611/temp/dfilqngp.png (https://www.directupload.eu/file/d/8947/dfilqngp_png.htm)
Und war natürlich auch nicht stabil...
Virtual
2025-06-11, 13:07:21
Mal wieder typischer GerryB-Quatsch. fps-Limit interessiert in dem Zusammenhang erstmal überhaupt nicht. Mal abgesehen davon, dass ich das auch getestet hatte, und UV für die tieferen Bereiche auf der Kurve überhaupt keinen Effekt hatte.
Bei ungelockten fps im GPU-Limit sieht das mit Default vs. -80mV eingestellt so aus:
https://s1.directupload.eu/images/250611/temp/3toiijq6.png (https://www.directupload.eu/file/d/8947/3toiijq6_png.htm) https://s1.directupload.eu/images/250611/temp/uqwbordj.png (https://www.directupload.eu/file/d/8947/uqwbordj_png.htm)
Einen Furz an Mehrtakt, bei gleichem Verbrauch. UV bei Radeons ist einfach für den Hintern. Bringt so gut wie gar nichts, oder ist in Spiel x plötzlich komplett instabil...
Entschuldigung, aber deine Aussage über das FPS-Limit ist nicht korrekt!
Praktischer Gegenbeweis meinerseits:
Bei Stalker 2 liegt der Verbrauch meiner 9070 Pure mit 60 FPS Limit bei ca. 84W, laut Telemetrie. Reduziere ich an der gleichen Stelle im laufenden Spiel die Spannung mit einem -105mV Offset (bei mir >100 Std. stabil), dann liegt der Verbrauch bei ca. 65W, laut Telemetrie.
Die Randbedingungen: Die Takt ist mit -500 Offset eingestellt, das Power Limit mit -30% bei 171W. Stalker 2 hält in dieser Szene den Takt bei ca. 2840MHz mit oder ohne Spannungs-Offset. Es ist ein Teillastbestrieb, laut Telemetrie, der aber belegt, der Spannungsoffset kann unter bestimmten Umständen reduzierend auf den Verbrauch wirken.
Edit: Leistungsaufnahme bezieht sich nur auf die GPU, Speicher usw. nicht inbegriffen.
Der_Korken
2025-06-11, 13:08:16
Nur leider entsprechen eingestellte-50mV nicht realen -50mV bei der ausgelesenen Spannung, weil die Karte damit immer höher boostet und die reale Spannung somit weit weniger reduziert. Der höhere Takt bringt auch nicht im selben Maße Mehrperformance, die Effizienz steigt also kaum.
Kann man sich direkt sparen, es hatte hier so gut wie gar nichts an Effizienzgewinnen gebracht.
Das stimmt. Ich hätte dazu sagen sollen "bei gleichem Takt". Dann stimmen die -10% wieder. Dass ich diese 10% mehr Effizienz nicht in 10% mehr Leistung umwandeln kann, versteht sich von selbst, da ein Chip grundsätzlich nicht linear mit mehr Verbrauch skaliert (außer wir sind unterhalb des Taktes, der noch mit Minimalspannung läuft).
Ansonsten sollte ich vielleicht noch erwähnen, dass ein negatives Offset tatsächlich nicht 1:1 umgesetzt wird. Bei einigen Experimenten habe ich festgestellt, dass -70mV "nur" zu einem Absenken der V/f-Kurve von 65mV führt. Jeweils geloggt über GPU-Z und über ein breites PT-Spektrum getestet.
dargo
2025-06-11, 13:16:04
Eingestellte -500MHz resultieren dann in realen -50Mhz und mit der real dann noch etwas niedrigeren Spannung dann in -10W, wenn das vorher in der Drosselung lief:
https://s1.directupload.eu/images/250611/temp/dfilqngp.png (https://www.directupload.eu/file/d/8947/dfilqngp_png.htm)
Und war natürlich auch nicht stabil...
Ja lol... die non XT hat als max. Boosttakt also auch diese bekloppten 3350Mhz (der Wert auf den sich der Takt Offset bezieht) im Bios stehen? :freak: Ich hatte gehofft, dass dieser Wert wesentlich tiefer bei der non XT steht. Dann hätte man wenigstens was von den -500Mhz und könnte die Karte öfter ins Taktlimit laufen lassen womit die dann sparsamer ist. Was ein Krampf. :usad:
raffa
2025-06-11, 17:29:23
@Virtual:
Wieviel Leistung verlierst du bei max. stabilem UV und -30% PT gegenüber default?
GerryB
2025-06-11, 17:29:58
fps-Limit interessiert in dem Zusammenhang erstmal überhaupt nicht.
Natürlich interessiert der Verbrauch im Fps-Limit bei beiden Settings.
Der Verbrauch und die Lautstärke sind für mich interessanter als ein paar MHz.
(ganz nebenbei bleibt der Vram kühler, wenn die gesamte Graka sich nicht so aufheizt)
Wem die MHz+Fps nicht reichen, der sollte eeh FG/AFMF nutzen.
F5.Nuh
2025-06-11, 23:07:56
Heute habe ich die Karte mal bei Standard belassen und getestet wegen Temps und Takt.
Seltsamerweise läuft die Karte teilweise nicht auf voller Leistung... siehe Anhang mit CoD - in 1440p damit die FPS schön hoch sind.
Die Karte läuft aber nur mit 109 - 150 Watt... die FPS dementsprechend nicht toll bei einem schnellen Shooter wie CoD - Warzone
In 4K läuft die Karte auf voller Leistung und da habe ich teilweise die gleichen FPS...
Vsync ist nicht aktiviert und es ist ein 4K 240Hz Monitor.
marc-05
2025-06-11, 23:15:12
Mal kurze Angetestet mit PL 70 bei Asus 9070XT Prime
Super Position 1.1 in 1440p Shader Extreme und Textures High
Points 9098 Durchschnitt 68 FPS
max Temps der Karte:
GPU 64, Hotspot 91 , Vram 76
70 PL -500 Mhz - 130mv
Points 8862 FPS 66
max Temps GPU 62, Hotspot 78, VRam 72
raffa
2025-06-11, 23:35:23
....
In 4K läuft die Karte auf voller Leistung und da habe ich teilweise die gleichen FPS...
...
Voll im CPU limit mit dem 5800X ;)
marc-05
2025-06-11, 23:42:08
Hier nachmal Port Royal , Karte im Quiet Bios
Stock 17702 Punkte FPS ~ 82
PL 70 17373 ca 80 FPS
raffa
2025-06-12, 00:00:41
Hier nachmal Port Royal , Karte im Quiet Bios
Stock 17702 Punkte FPS ~ 82
PL 70 17373 ca 80 FPS
nehm ich!
edit: reingefallen, das ist ne xt, da überrascht das wenig
Virtual
2025-06-12, 00:19:07
@Virtual:
Wieviel Leistung verlierst du bei max. stabilem UV und -30% PT gegenüber default?
Das Powertarget meiner 9070 Pure (245W) ist gut 11% über dem AMD-Default von 220W.
Damit reduziere ich bei 171W praktisch nur rund 22% gegenüber dem AMD-Default. Nehme ich den Steel Nomad Bench (-120mV absolut stabil) als Maßstab, dann ist der FPS-Verlust bei 171W bei knapp 9% gegenüber einem Schnitt der 220W-Default-Referenzen(ca. Mittelwert). Selbst 196W (-20%) sind nur unwesentlich schlechter bzgl. Effizienz. Der (gefühlt) beste Sweet-Spot meiner 9070 Pure ist also bei rund 170-200W (könnte möglicherweise allgemeingültig sein, ansonsten greifen Aufkrawalls Anmerkungen bzgl. <<800mV Undervolting) und nur bis dahin darf meine 9070 bei Bedarf rennen. Ich bin ein Fan von Effizienz und Linux (habe aber auch noch Win10 im Einsatz) und muss wegen letzterem (Linux) NVidias Angebote ablehnen.
Möchte man die 9070-RDNA4 Effizienz optimal ausnutzen (Graka-Preise mal außen vor), dann sind (für mich) 170W bis 200W das Ziel. Leider ist liegt das etwas unterhalb der -30%PT-XT-Angebote, aber die ausgezeichnete Kühlung der 9070 Pure tröstet darüber hinweg. GPU-Hotspot immer unter 50 Grad, nur Speicher genemigt sich bis max- 70 Grad bei bisher max. 22 Grad Umgebungstemperatur mit gut gelüfteten Gehäuse. Jaja, das Morepower-Tool wäre beim Speicher sehr willkommen. Da ist sicher noch Luft.
GerryB
2025-06-12, 05:38:19
etwas Geduld
die Einstellung des I2C per Linux ist schon möglich, demnächst sicherlich "unkompliziert" nutzbar
siehe MPT-Thread bei IL, bzw. der eigene Thread von Fpsflow, wo es bei seiner 7800xt funzt
https://www.overclock.net/threads/software-removing-rdna3-desktop-class-power-limits-and-adding-vid-offsets.1816083/page-3?post_id=29475543#post-29475543
(momentan wird versucht, auch auf RDNA4 die entspr. Werte zu finden)
Der Vram++ lässt sich auf jeden Fall etwas UVen, das hat reloadll im pcgh-thread mit EVC2 getestet.
(VDDIO+VDDCI+SOC)
https://extreme.pcgameshardware.de/threads/amd-radeon-rdna-4-laberthread.657190/page-168#post-11895412
(bei VDDCI und SOC würde ich etwas vorsichtiger rangehen als reloadll, sonst hat man zu schnell nen Blackscreen)
raffa
2025-06-12, 09:14:39
Ich bin ein Fan von Effizienz und Linux.
+1
Danke dir, das deckt sich in etwa mit den Erkenntnissen aus diesem Video und den Kommentaren dort
aawtR-R6iyY
Unigine Superpositon 4K
9070@188W 17320
9060 XT@182W 10460
Raff, wo bleibt der Minitest dazu? : )
Was jetzt, Effizienz oder Linux? :D
Ich bin leider gerade mit einer anderen Radeon-Grafikkarte beschäftigt. Was heißt "leider", spannend! More soon(tm).
MfG
Raff
raffa
2025-06-12, 09:22:43
Eigentlich Effizienz, aber beides geht freilich auch : )
Spannend klingt freilich auch spannend!
dargo
2025-06-12, 11:08:15
Mal kurze Angetestet mit PL 70 bei Asus 9070XT Prime
Super Position 1.1 in 1440p Shader Extreme und Textures High
Points 9098 Durchschnitt 68 FPS
max Temps der Karte:
GPU 64, Hotspot 91 , Vram 76
70 PL -500 Mhz - 130mv
Points 8862 FPS 66
max Temps GPU 62, Hotspot 78, VRam 72
Ähm... da komme ich wieder nicht ganz mit, ihr gebt einfach zu wenig Details Preis. Bei 70% PL dürfte doch der Taktoffset von -500Mhz überhaupt nicht greifen. :freak: Und sind diese -130mV stabil überall oder nur ein Schnellschuss von diir? Kommt mir sehr optimistisch vor. Es sei denn... im unteren Bereich der V/F Kurve (wo du ja mit deinen 70% PL bist) wird N48 plötzlich ein UV-Wunder. :D Oder die -130mV sehen nur auf den ersten Blick nach viel aus und im unteren Frequenzbereich es dann deutlich weniger mV sind, also deutlich weniger als -130. Ohne die tatsächlich anliegenden Spannungen pro Takt bei euren UV-Angaben ist das wirklich alles Käse.
nairune
2025-06-12, 11:27:03
Keine Sorge dargo, meine Karte sollte morgen in der Packstation liegen (und ein unnötiges PCIe-Kabel für fucking 13€...).
Am WE werde ich wohl ein paar Stündchen dafür finden.
dargo
2025-06-12, 11:33:52
Keine Sorge dargo, meine Karte sollte morgen in der Packstation liegen (und ein unnötiges PCIe-Kabel für fucking 13€...).
Am WE werde ich wohl ein paar Stündchen dafür finden.
Super, danke. :up: Wegen Kabel. :down:
F5.Nuh
2025-06-12, 12:35:50
Voll im CPU limit mit dem 5800X ;)
Mit 80% CPU Last?
Der_Korken
2025-06-12, 12:39:07
Mit 80% CPU Last?
Du kannst mit 8C/16T auch mit 6% im CPU-Limit sein, wenn die Anwendung nur einen Kern nutzt.
horn 12
2025-06-12, 13:17:03
Was jetzt, Effizienz oder Linux? :D
Ich bin leider gerade mit einer anderen Radeon-Grafikkarte beschäftigt. Was heißt "leider", spannend! More soon(tm).
MfG
Raff
die 9070 AI 32GB
Wäre jene auch zum Zocken Geeignet
und Samsung Speicher aber vor UDNA wechsle ich zusammen mit 5K2K Monitor nicht mehr ... und dies könnte Winter 2026 werden!
dargo
2025-06-12, 15:11:05
die 9070 AI 32GB
Wäre jene auch zum Zocken Geeignet
Reine Geldverschwendung.
marc-05
2025-06-12, 16:50:58
War gestern "Schnellschuss" um mit Taktoffset von -500Mhz noch tiefer die Offset Spannung zu senken,ohne gibts schon eher Crash.
Navi 48 Effizient .... na ja geht so . Vorherige Graka aka 4070 Super war schön mit AB Editor die Takt und Spannungs-Spitzen zu kappen und so auf 150-160 Watt zu kriegen.
Bin gespannt was in Zukunft mit Afterburner möglich ist bei Navi .
Heute Abend an PC setzen und noch bissl probieren wieviel Spannung an liegt
Lurtz
2025-06-12, 17:10:57
Ohne tieferen Zugriff, den AB auch nicht bekommt, wird da nicht mehr gehen.
dargo
2025-06-12, 17:52:53
War gestern "Schnellschuss" um mit Taktoffset von -500Mhz noch tiefer die Offset Spannung zu senken,ohne gibts schon eher Crash.
Ich komm da immer noch nicht mit bei deinen Daten. :freak: Wenn du eh schon max. 213W fährst dann ist dein Takt sehr tief wo der Taktoffset überhaupt nicht greifen sollte. Gut... mit "-130mV" hebst du den wieder recht gut an. Du merkst selbst ohne mehr Angaben ist das Stochern im Dunkeln. :tongue:
nairune
2025-06-13, 09:46:45
Die Prime XT kam doch schon gestern und die Entscheidung dass sie bleibt, ist schon gefallen.
Lüfter klingen gut, keine Störgeräusche. Von Spulen habe ich auch nichts gemerkt, aber bislang auch nur 3DMark und paar Stunden BG3 laufen lassen.
Mit den 300W default wäre sie mir zwar zu laut, runtergeregelt ist sie aber genau wie ich möchte. Hwinfo hatte ich den ganzen Abend (nach Verringerung des Powerlimits) laufen, da standen am Ende max. RPM 1073, average unter 800.
Also ich gucke mir noch alles im Detail an, aber so geht das schon.
Da Karte selbst ist optisch/haptisch schon ein Downgrade von der 6900 made by AMD, aber was will man machen, der Preis ist gut.
Einzig Cill für Frameratelimit habe ich nicht mehr gefunden. Einen "Chill"-Schalter gibt es zwar, aber man kann keine FPS-Limits mehr angeben?!
dargo
2025-06-13, 10:14:05
@nairune
Mache mal bitte paar Tests später wenn du mal Zeit findest mit max. 250W in Bezug auf Temperaturen (beide Hotspots) und Lüfterdrehzahlen, gerne mit custom Lüftersteuerung. Vielleicht entscheide ich mich dann doch für die Prime XT, natürlich nur wenn ich sie für 639€ bekomme. :)
The_Invisible
2025-06-13, 11:58:46
Modelle mit Hynix Speicher sind wohl etwas schneller: https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/News/GDDR6-Speicher-von-SK-Hynix-ist-schneller-1474893/
Also wer das letzte bisschen Leistung will :D
Disco_STFU
2025-06-13, 12:09:02
die 9070 AI 32GB
Wäre jene auch zum Zocken Geeignet
und Samsung Speicher aber vor UDNA wechsle ich zusammen mit 5K2K Monitor nicht mehr ... und dies könnte Winter 2026 werden!
Wohl eher die 9060 XT 8 GB... :unono:
nairune
2025-06-13, 14:35:48
Also die Prime scheint ein erhöhtes Powerlimit zu haben, war mir gar nicht bewusst. Default geht sie auf ~318W. Steht auf dem Quiet-BIOS.
Für dargos 250W musste ich daher auf -21% stellen. Damit kommt sie aber recht souverän zurecht, hier habe ich übers Mittag Heaven laufen lassen (daher der hohe Takt) und erst nach der Aufwärmphase aufgezeichnet:
https://i.imgur.com/wXyu5CB.png
Lüftersteuerung und alles andere auf Standard. Die automatische Lüftersteuerung arbeitet hier auch nicht übel: sie macht keine Spikes auf hörbare Drehzahlen.
Übrigens Hynix-Speicher ;)
Hakim
2025-06-13, 14:46:17
Könntest du mal bitte Stock vs -18% PT (260W), -0,40mV Offset und -400 MHz Taktoffset bei der Prime XT testen? Leistungsunterschied und Verbrauch würde mich interessieren
dargo
2025-06-13, 15:02:49
Für dargos 250W musste ich daher auf -21% stellen. Damit kommt sie aber recht souverän zurecht, hier habe ich übers Mittag Heaven laufen lassen (daher der hohe Takt) und erst nach der Aufwärmphase aufgezeichnet:
https://i.imgur.com/wXyu5CB.png
Lüftersteuerung und alles andere auf Standard.
Danke... auch wenn der AIB das in Ordnung findet sind für mich die beiden Hotspots schon etwas zu hot. Aber gut... ich sehe da nur 1.000RPM, ich würde bei den 90mm Lüftern eher 1.200-1.300RPM nutzen denke ich. :) Geht die Prime XT auch auf min. ~600RPM runter für Idle? Bei der non XT ist dies der Fall.
nairune
2025-06-14, 01:18:35
Fixed ~1200 RPM senken die Temps ein wenig und hören sich noch gut an, ja. Karte (und im Unterschied zu heute Mittag auch das komplette Gehäuse) war hier schon ordentlich vorgewärmt.
https://i.imgur.com/PsIRqfj.png
Min-RPM sind 700.
Eine "Leistungsmatrix" / Skalierung mit Powerlimit und UV mache ich vielleicht am WE, das braucht mehr Zeit.
dargo
2025-06-14, 07:48:20
Super, danke. :up:
Hmm... immer noch etwas viel, hauptsächlich der Speicher. Auch wenn dank der Hitze die Raumtemperatur recht hoch sein dürfte. :uponder: So richtig dolle scheint der Kühler für diese Art Powerlimit nicht zu sein. Delta mit 16°C finde ich wiederum toll.
Min-RPM sind 700.
Das dürfte passen. Oder hörst du davon was in Idle aus dem Gehäuse heraus?
Eine "Leistungsmatrix" / Skalierung mit Powerlimit und UV mache ich vielleicht am WE, das braucht mehr Zeit.
Nochmal :up:
nairune
2025-06-14, 11:05:19
Waren so 24°C im Raum. Also man bekommt es leise weggekühlt, aber jo, die Temps sind wie sie sind. Mache ich mir allerdings weniger Sorgen, der Speicher der 6900 ist auch immer recht warm geworden durch die niedrigen Drehzahlen und die lief Jahre ohne Mucken.
An der Stelle auch nochmal ein Lob an die Asus-Lüfter: echt tolle Akustik. Bin die Drehzahlen langsam hochgegangen und es wird ganz langsam lauter, aber aus dem Gehäuse dringt wirklich nur ein Rauschen. Keine rhythmischen Motorgeräusche oder sonst irgendein Dreck. Und Spulen waren noch immer nicht zu hören.
robbitop
2025-06-14, 11:32:47
Solange die Halbleiterbauteile (gpu, ram, vrm, mikrocontroller) innerhalb der Spec laufen ist die Temperatur doch egal und es macht Sinn dafür etwas die Lautstärke zu senken. Alterung ist mWn eher ein Problem bei anderen Bauteilen wie Kondensatoren.
IMO sollte muss man sich da nicht unbedingt den Kopf zerbrechen.
dargo
2025-06-14, 12:26:30
An der Stelle auch nochmal ein Lob an die Asus-Lüfter: echt tolle Akustik. Bin die Drehzahlen langsam hochgegangen und es wird ganz langsam lauter, aber aus dem Gehäuse dringt wirklich nur ein Rauschen. Keine rhythmischen Motorgeräusche oder sonst irgendein Dreck.
Jau... das konnte ich schon aus einem Review rausbekommen, weitere Bestätigung ist aber immer willkommen. Lüfter völlig unaufdringlich, nur ab bestimmten Drehzahlen dann halt Luftrauschen. Verdammte Physik. :D
btw.
Ist da eigentlich was dran, dass der Samsung Speicher wesentlich kühler läuft als der Hynix Speicher?
Ja, aber auch leicht geringere Performance durch schlechtere timings.
https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/News/GDDR6-Speicher-von-SK-Hynix-ist-schneller-1474893/
Denniss
2025-06-14, 14:54:38
Speicher ist aber noch recht heiß
dargo
2025-06-14, 15:20:44
Ja, aber auch leicht geringere Performance durch schlechtere timings.
https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/News/GDDR6-Speicher-von-SK-Hynix-ist-schneller-1474893/
Wird bestimmt geringer ausfallen bei 250W. ;) Bei einer non XT wahrscheinlich auch eher weniger interessant. Zumal durch die schwächeren Timings sich der Vram wieder womöglich höher (über)takten lässt.
Speicher ist aber noch recht heiß
Ich hatte mal irgendwo aufgeschnappt, dass jemand mit der XT beim Samsung Speicher "nur" noch 80°C angeblich hatte. Was mir wesentlich besser gefällt. Weiß aber nicht mehr wo das war, zu viel gelesen. X-D
horn 12
2025-06-14, 15:54:44
Habe mit meiner Hellhound XT ebenfalls nur 16 bis 18 Grad Delta GPU auf Hotspot
und Speicher mit UV auch max. 86 Grad warm.
nairune
2025-06-14, 16:08:33
Meiner ist wie gesagt Hynix-Speicher, also kann schon sein dass er auch deshalb etwas wärmer wird.
Hier noch die Skalierung, habe alles 2-3 Mal gebencht um Ausreißer auszusortieren (z.B. ist der Score höher, wenn die Karte vorher komplett kalt war, klar).
Mit -80mW ist Steel Nomad nicht mehr stabil (-30% PT lief noch, -21% nicht mehr).
Ich lasse sie jetzt erstmal -30%, -40mW laufen, also -8% Leistung für über 30% Effizienz.
https://i.imgur.com/D6GHlqI.png
edit: kleiner Disclaimer, bei Steel Nomad liegt eher niedriger Takt an, bei Spielen mit hoch laufendem Takt könnte der Effizienzunterschied noch größer sein. Da kann man dann aber natürlich auch mit dem Taktlimit ein wenig gegensteuern.
dargo
2025-06-14, 16:30:38
Etwas schade, dass du Stock die 318W von Asus genommen hast was eigentlich OC ist und keine 304W. Aber trotzdem danke für deine Mühe. Ich kann mir das von den anderen Werten ableiten. :) Wenn ich keine Performance verlieren will vs. Stock muss ich wohl eher 260-270W anpeilen. Oder ich erwische eine absolute Krücke wo nicht mal "-50mV" geht @max. 260W. :ulol:
nairune
2025-06-14, 16:41:42
Mache ich nachher noch ne Runde, aber wenn ich mir das anschaue, sind das nur 1-2% Unterschied
dargo
2025-06-14, 16:47:19
Mach dir keine unnötige Arbeit. :) Mit 304W bist du bei ca. 6780 Punkten.
Hakim
2025-06-14, 17:50:32
danke nairune für deine Mühe, ich hab sowieso so 250-270W im Kopf, mit UV könnte ich da Stock Performance Niveau erreichen. Was mich etwas bei RDNA4 stört ist das es oft am PT Limit klebt im Vergleich zu den Geforces. Werde versuchen das mit einem Minus Takt Offset und damit einen Cap irgendwo bei den Stock MHz Werten zu erreichen damit es je nach Spiel auch mal unter dem PT ist. Also in wenn Stock ~2900 Mhz in etwa ist, vermutlich Minus 450 Mhz wenn es dann von dem maximal möglichen Takt, 3350 MHz, ausgeht
dargo
2025-06-14, 19:52:19
danke nairune für deine Mühe, ich hab sowieso so 250-270W im Kopf, mit UV könnte ich da Stock Performance Niveau erreichen. Was mich etwas bei RDNA4 stört ist das es oft am PT Limit klebt im Vergleich zu den Geforces.
Tjo... jetzt weißt du warum ich den MPT so bei RDNA4 vermisse. :usad: Oder wir müssen eine Petition starten damit AMD endlich -1000Mhz im Treiber frei gibt. :upara: Ich frage mich echt wer da so besoffen war bei der Entscheidung mit -500Mhz bis +1000Mhz. An wen zum Teufel sind diese +1000Mhz gerichtet? An Hardware-Modder mit LN2? :uconf2:
nairune
2025-06-14, 19:58:26
Jetzt alles in Relation zu den 304W / Referenz:
https://i.imgur.com/By8EtRK.png
Also je nach Chipgüte wohl so 260W-280W, um Referenzperformance mit UV zu erreichen.
Taktlimit ist halt sehr begrenzt und der Takt variiert eh sehr stark zwischen den Spielen. Also mein Weg ist das Powerlimit soweit zu senken, dass die von mir gewünschte Abwärme (=Lautstärke, Zimmeraufheizung, Betriebskosten) nicht überschritten wird und zusätzlich gibt es Chill: Sobald die Karte davon gebremst wird und in Teillast geht, wird es richtig sparsam.
Läuft Chill eigentlich wieder Bug-Befreit? War ja unter N31 ne Dauerbaustelle
..
Tjo... jetzt weißt du warum ich den MPT so bei RDNA4 vermisse. :usad: Oder wir müssen eine Petition starten damit AMD endlich -1000Mhz im Treiber frei gibt. :upara: Ich frage mich echt wer da so besoffen war bei der Entscheidung mit -500Mhz bis +1000Mhz. An wen zum Teufel sind diese +1000Mhz gerichtet? An Hardware-Modder mit LN2? :uconf2:
Ist dies deinem Fall nötig? Mit ~220w kommst du trotz UV kaum an die 3g ran. In forderten Titeln sind es eher derer 2.5g! Willst du die GPU im 2D-Modus laufen lassen? Geht unter Win11 easy ...
Der_Korken
2025-06-14, 22:30:59
Tjo... jetzt weißt du warum ich den MPT so bei RDNA4 vermisse. :usad: Oder wir müssen eine Petition starten damit AMD endlich -1000Mhz im Treiber frei gibt. :upara: Ich frage mich echt wer da so besoffen war bei der Entscheidung mit -500Mhz bis +1000Mhz. An wen zum Teufel sind diese +1000Mhz gerichtet? An Hardware-Modder mit LN2? :uconf2:
Ich weiß nicht, wie es bei RDNA2 aussah, aber bei RDNA4 sind die Taktraten deutlich stärker vom Workload abhängig als bei RDNA1. Die Spannweite ist selbst ohne Ausreißer recht groß mit 27xx bis 30xx Mhz und das selbst bei 300W. Bei weniger Watt geht die Schere weiter auseinander. Wenn du jetzt versuchst, den Takt so zu begrenzen, dass du in allen Spiel taktlimitiert bist, müsstest du schon auf 2600 Mhz runtergehen. Das kostet in den Spielen, die vorher über 3Ghz liefen, schon ordentlich Leistung, während andere trotzdem noch relativ nah am 300W laufen würden. Ich bin nicht so überzeugt, dass mehr Taktlimit nach unten wirklich der Bringer wäre. Zumal ich ebenfalls noch nicht davon überzeugt bin, dass niedrigere Taktraten wirklich beim UV helfen (im Gegensatz zu CPUs und alten GPU-Gens).
dargo
2025-06-15, 08:07:09
Ist dies deinem Fall nötig? Mit ~220w kommst du trotz UV kaum an die 3g ran. In forderten Titeln sind es eher derer 2.5g! Willst du die GPU im 2D-Modus laufen lassen? Geht unter Win11 easy ...
Hast du es immer noch nicht verstanden? Vielleicht möchte der Konsument seinen N48 so konfigurieren, dass der in Games mit max. 2,7Ghz läuft, ohne ins Powerlimit zu rennen? Und genau sowas verhindert AMD durch bescheuerte Entscheidungen. Dabei müsste AMD nur im Treiber beim negativen Offset mehr zulassen.
Ich weiß nicht, wie es bei RDNA2 aussah, aber bei RDNA4 sind die Taktraten deutlich stärker vom Workload abhängig als bei RDNA1. Die Spannweite ist selbst ohne Ausreißer recht groß mit 27xx bis 30xx Mhz und das selbst bei 300W.
Daran ist überhaupt nichts groß, hatte RDNA2 auch schon. Du musst das prozentual sehen. Je höher die Frequenzen umso stärker klaffen diese auf den ersten Blick auseinander. Prozentual ändert sich aber nichts.
Ich weiß nicht, wie es bei RDNA2 aussah, aber bei RDNA4 sind die Taktraten deutlich stärker vom Workload abhängig als bei RDNA1. Die Spannweite ist selbst ohne Ausreißer recht groß mit 27xx bis 30xx Mhz und das selbst bei 300W. Bei weniger Watt geht die Schere weiter auseinander. Wenn du jetzt versuchst, den Takt so zu begrenzen, dass du in allen Spiel taktlimitiert bist, müsstest du schon auf 2600 Mhz runtergehen. Das kostet in den Spielen, die vorher über 3Ghz liefen, schon ordentlich Leistung, während andere trotzdem noch relativ nah am 300W laufen würden.
Naja.... woher willst du das wissen wenn du es bei N48 nicht mal entsprechend einstellen kannst? Ein powerlimitierter Betrieb kostet immer Performance. Bei RDNA2 sind das ca. 4% wenn ich das noch richtig im Kopf habe. Also Graka ohne Powerlimit, aber selbe Frequenz war 4% schneller. Deshalb ist mein RDNA2 entsprechend konfiguriert, dass der zu 99,9% taktlimitiert läuft. Mit Speicher-OC kann man auch noch etwas Leistung aufholen die man durch weniger GPU-Frequenz liegen lässt. Bei RX 9070XT würde ich sagen noch eher als bei RX 6800XT. Ich vermisse aber allgemein MPT bei RDNA4, auch weil ich dort schön Zugriff auf die Lüfter sowie den Speichercontroller hatte. Deshalb fällt mir die Trennung von RDNA2 auch so schwer. :usad:
Ich bin nicht so überzeugt, dass mehr Taktlimit nach unten wirklich der Bringer wäre. Zumal ich ebenfalls noch nicht davon überzeugt bin, dass niedrigere Taktraten wirklich beim UV helfen (im Gegensatz zu CPUs und alten GPU-Gens).
Ich kann dazu noch nichts sagen da ich so eine Karte noch nicht im Rechner habe und entsprechend nicht untersuchen kann. Aus den ganzen Angaben hier im Thread kann man absolut nichts ableiten wie sich die Karte beim UV unter verschiedenen Bedingungen verhält weil praktisch niemand die tatsächlich anliegende Spannung zur Frequenz angibt. Erst damit kann man sehen was der negative Spannungsoffset im Treiber überhaupt veranstaltet.
Der_Korken
2025-06-15, 10:44:57
Aus den ganzen Angaben hier im Thread kann man absolut nichts ableiten wie sich die Karte beim UV unter verschiedenen Bedingungen verhält weil praktisch niemand die tatsächlich anliegende Spannung zur Frequenz angibt. Erst damit kann man sehen was der negative Spannungsoffset im Treiber überhaupt veranstaltet.
Das Offset macht ziemlich genau das, was es soll: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13738339#post13738339
Die Frage ist halt, ob der UV-Spielraum wirklich bei kleineren Taktraten größer ist. Falls nein, dann bringt das Limitieren der Taktraten keinen Vorteil beim UVen.
nairune
2025-06-15, 15:08:11
Naja.... woher willst du das wissen wenn du es bei N48 nicht mal entsprechend einstellen kannst? Ein powerlimitierter Betrieb kostet immer Performance. Bei RDNA2 sind das ca. 4% wenn ich das noch richtig im Kopf habe. Also Graka ohne Powerlimit, aber selbe Frequenz war 4% schneller. Deshalb ist mein RDNA2 entsprechend konfiguriert, dass der zu 99,9% taktlimitiert läuft. Mit Speicher-OC kann man auch noch etwas Leistung aufholen die man durch weniger GPU-Frequenz liegen lässt. Bei RX 9070XT würde ich sagen noch eher als bei RX 6800XT. Ich vermisse aber allgemein MPT bei RDNA4, auch weil ich dort schön Zugriff auf die Lüfter sowie den Speichercontroller hatte. Deshalb fällt mir die Trennung von RDNA2 auch so schwer. :usad:
Mit RDNA4 ist das nicht so. Ich habe Heaven genommen, da sehr reproduzierbare Ergebnisse rauskommen und es dort kein Problem ist, komplett taktlimitiert zu sein (das läuft mit bis zu 3400 MHz, wenn man über 300W freigibt...).
Also erstmal ermittelt, welche Einstellungen äquivalent sind und das sind 231W gegen 2900MHz: im average wird jeweils das andere praktisch exakt erreicht. Ergebnis:
Taktlimit - 2900MHz
Powerlimit - offen (+10%)
= 2044 Punkte
Taktlimit - offen (+1000MHz)
Powerlimit - 231W
= 2042 Punkte
Also Taktlimit ist nur eventuell für UV-Stabilität sinnvoll, ansonsten bringt das gar nichts. Ok, fairerweise leidet natürlich die Effizienz bei sehr hohen Taktraten mehr pro MHz, also ein Limit um sehr hohe Frequenzen wegzublocken müsste auch ein wenig was für die Effizienz bringen.
dargo
2025-06-15, 15:45:47
Interessant... sieht so aus als wenn AMD den Algorithmus im Powerlimit verbessert hat.
Pinhead_Xp
2025-06-15, 16:09:21
Gibt es eigentlich eine Möglichkeit ohne großen Aufwand, eine Minimaltaktrate für die Gpu zu definieren?
Zock gerade das Final Fantasy 7 Remake, welches die Karte mal garnicht auslastet, trotz internem 4K Rendering.
Es kommt immer mal wieder zu kleinen Rucklern, welche nicht auftreten wenn das Amd Overlay aktiviert ist (wo die Karte automatisch höher taktet)
Bei Nvidia konnte man für die einzellnen Games einfach auf Höchstleistungen stellen und der minimal Takt war deutlich höher egal was für ein Gurkenspiel man gestartet hat.
Der_Korken
2025-06-15, 16:34:30
Gibt es eigentlich eine Möglichkeit ohne großen Aufwand, eine Minimaltaktrate für die Gpu zu definieren?
Nicht dass ich wüsste. Das Problem kannte ich auf RDNA1 auch schon, aber zum Glück nur relativ selten. Schon ironisch, dass die Karten auf dem Desktop für jeden Furz sofort durchtakten, aber bei zu wenig Spielelast einfach einschlafen.
Pinhead_Xp
2025-06-15, 17:55:03
Nicht dass ich wüsste. Das Problem kannte ich auf RDNA1 auch schon, aber zum Glück nur relativ selten. Schon ironisch, dass die Karten auf dem Desktop für jeden Furz sofort durchtakten, aber bei zu wenig Spielelast einfach einschlafen.
Ja geht mir bissl auf den Zeiger. Hatte ja schon Probleme mit dem ULPS Modus (den man zum Glück deaktivieren kann)
Finde die Hardwarehersteller sollten uns User die eh nur paar h die Woche am zocken sind ruhig mal eine Vollgas Einstellung zur Verfügung stellen, max Takt auf CPU und GPU egal was du mit der Bude gerade machst.
Ich hab mir übrigens gerade damit geholfen, das ich das Amd Overlay aktiviert lasse und einfach die Transparenz auf 100% gestellt hab.
Amd ey...
Hast du es immer noch nicht verstanden? Vielleicht möchte der Konsument seinen N48 so konfigurieren, dass der in Games mit max. 2,7Ghz läuft, ohne ins Powerlimit zu rennen? Und genau sowas verhindert AMD durch bescheuerte Entscheidungen. Dabei müsste AMD nur im Treiber beim negativen Offset mehr zulassen.
Daran ist überhaupt nichts groß, hatte RDNA2 auch schon. Du musst das prozentual sehen. Je höher die Frequenzen umso stärker klaffen diese auf den ersten Blick auseinander. Prozentual ändert sich aber nichts.
Naja.... woher willst du das wissen wenn du es bei N48 nicht mal entsprechend einstellen kannst? Ein powerlimitierter Betrieb kostet immer Performance. Bei RDNA2 sind das ca. 4% wenn ich das noch richtig im Kopf habe. Also Graka ohne Powerlimit, aber selbe Frequenz war 4% schneller. Deshalb ist mein RDNA2 entsprechend konfiguriert, dass der zu 99,9% taktlimitiert läuft. Mit Speicher-OC kann man auch noch etwas Leistung aufholen die man durch weniger GPU-Frequenz liegen lässt. Bei RX 9070XT würde ich sagen noch eher als bei RX 6800XT. Ich vermisse aber allgemein MPT bei RDNA4, auch weil ich dort schön Zugriff auf die Lüfter sowie den Speichercontroller hatte. Deshalb fällt mir die Trennung von RDNA2 auch so schwer. :usad:
Ich kann dazu noch nichts sagen da ich so eine Karte noch nicht im Rechner habe und entsprechend nicht untersuchen kann. Aus den ganzen Angaben hier im Thread kann man absolut nichts ableiten wie sich die Karte beim UV unter verschiedenen Bedingungen verhält weil praktisch niemand die tatsächlich anliegende Spannung zur Frequenz angibt. Erst damit kann man sehen was der negative Spannungsoffset im Treiber überhaupt veranstaltet.
Nein, du hast nicht verstanden! Der Vorteil beim AMD-Treiber ist dass du pro Spiel dein PT austarrieren kannst und immer (!) bei deinen 270W landest! Da braucht es definitiv kein MPT dafür! Mir sind die Wätter aufgrund PV egal, trotzdem gebe ich bei älteren Titeln immer -30% ohne UV ond OC, da die FPS eh durch die Decke schießen, bei neueren Titeln, wird UV OC und max. Performance bevorzugt. Dies ist der größte Unterschied zwischen NV und AMD, da dies bei NV nicht möglich ist! Für mich ein Killerfeature!
GerryB
2025-06-16, 07:24:51
nach m.E. ist RDNA2 nur etwas anders beim Boost eingestellt als RDNA3+4,
kann man selbst nachregeln, sprich einfach mal 60MHz mehr Takt erlauben
2275-->2333MHz im Treiberpaneel
Ich sehe bei mir im PL keine negativen Auswirkungen:
Test TSE-GT2 ist besonders auffällig bezgl. runtertakten, wo die Tesselation sinnlos hoch ist(x)
andere moderne Synthetics wie SN und SW laufen gleichmäßiger mit noch weniger PL,
ohne das ich den Versuch mache, auf Biegen und Brechen den eff.maxTakt nahe 2275 zu halten
Am Ende ist die opt.6800 effizienter als ne 7700xt@stock, die den neuen Boost>maxTakt kann.
die 7700xt geht sicherlich auch noch zu optimieren, wäre mir stock245W eeh too much,
die 9060xt ist dagegen schon besser eingestellt. kommt im TSE aber auch an ihre Grenzen,
sollte mit UVen mit stock 183W dann auch 8k-Score können
Die 9070GRE mit 220W, ne Klasse höher, kommt auch mit viiiel W.(bisschen Brechstange)
Wäre interessant, ob ne 6800xt optimiert da nahe rankommt. falls Jemand ca. 240-250w TBP nutzt.
Die GRE@stock sollte im TSE so ca. 10k Score haben.
https://www.3dmark.com/spy/56640150
(x) real 24/7 würde ich eeh Tess=6x setzen
statt stock203Wtgp benutze ich weniger W+UVen
just for fun noch ein Schnappschuss in Rome, wo der Boost außerordentlich hoch geht@AFMF
k.A., ob mit FG/AFMF das Async als Takt obendrauf gepackt wird in manchen Games
Jetzt alles in Relation zu den 304W / Referenz:
https://i.imgur.com/By8EtRK.png
Also je nach Chipgüte wohl so 260W-280W, um Referenzperformance mit UV zu erreichen.
Taktlimit ist halt sehr begrenzt und der Takt variiert eh sehr stark zwischen den Spielen. Also mein Weg ist das Powerlimit soweit zu senken, dass die von mir gewünschte Abwärme (=Lautstärke, Zimmeraufheizung, Betriebskosten) nicht überschritten wird und zusätzlich gibt es Chill: Sobald die Karte davon gebremst wird und in Teillast geht, wird es richtig sparsam.
Hm, -60mV - geht es nicht noch ein wenig weiter runter?
dargo
2025-06-16, 19:50:46
Hm, -60mV - geht es nicht noch ein wenig weiter runter?
Nö.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13771917&postcount=1659
nairune
2025-06-16, 20:33:32
UV habe ich noch nicht austariert, insbesondere weil ich gerade hauptsächlich Baldurs Gate 3 spiele und wenn ich mal 15 min nicht speichere, ist ein Crash richtig nervig. Zudem ist das auch schon mal ohne UV gecrashed und dann weiß man nicht Mal was Schuld war...
Aber ja, -80mV lief nicht im 3DMark.
edit: aber BG3 läuft jetzt richtig fluffig. Der 6900 ist in 4k HDR Splitscreen ab und an die Puste ausgegangen (unter 50 FPS), außerdem hatte Vulkan Grafikfehler - da wäre die Performance besser gewesen. Die 9070 rennt in Vulkan fehlerfrei, klebt an 70 FPS mit Chill und der ganze PC zieht nur 200-250W.
Der_Korken
2025-06-17, 12:06:07
FineWine(tm), baby! :cool:
Radeon RX 9070 (XT) im Nachtest: Deutliches Leistungsplus dank Treiber-Updates (https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/Tests/vs-RTX-5070-Ti-Treiber-Update-Benchmark-Test-1474379/)
MfG
Raff
Ich quote das mal hier, damit es im richtigen Thread landet.
Danke für den Nachtest, Raff! Die Zuwächse beim Pathtracing sind schon beachtlich, selbst wenn die 9070XT immer weit hinter der 5070Ti liegen dürfte. Ich habe mich schon länger gefragt, wieviel Potenzial hier auf Software-Seite brachliegt, da die RT-Fähigkeiten von RDNA2 und 3 so überschaubar waren, dass sich viele Entwickler nicht die Mühe gemacht werden ihr PT ordentlich auf AMD zu optimieren. Dazu kommen noch so Sachen wie Shader Exectuion Reorder und Opacity Micromaps, die auf Nvidia seit Ada über eine proprietäre Schnittstelle verfügbar sind, aber erst die nächsten Wochen offiziell in der DirectX-Spec auftauchen werden. Auch das könnte AMD beim PT nochmal ein Stück nach vorne bringen, wenn die beiden Features über DirectX angesprochen werden.
Perspektivisch auf jeden Fall. Der Rest bzw das, was wir heute schon sehen (https://www.pcgameshardware.de/Radeon-RX-9060-XT-16GB-Grafikkarte-281275/Tests/AMD-RDNA-4-vs-RDNA-3-9000-vs-7000-1474254/), ergibt sich durch die potenteren Rechenwerke ansich, welche anscheinend nicht immer automatisch perfekt laufen, sondern Treiber-Ansprache brauchen.
Du kannst übrigens in jedem Benchmark auch die RTX 5070 Ti dazuholen und schauen, wie weit sie vorne liegt. Ich habe nur alles abseits der beiden Probanden ausgeblendet, um die Leistungsgewinne zu fokussieren. :)
MfG
Raff
GerryB
2025-06-17, 15:34:56
Jo, sieht gut aus bei den minFps.
Was will man mehr für 614/699€ ?
dargo
2025-06-17, 16:45:01
Was will man mehr für 614/699€ ?
Das...
https://geizhals.de/sapphire-pulse-radeon-rx-9070-xt-11348-03-20g-a3429991.html?hloc=at&hloc=de
oder das.
https://geizhals.de/sapphire-pure-radeon-rx-9070-xt-11348-02-20g-a3429921.html?hloc=at&hloc=de
Nö.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13771917&postcount=1659
Hm, leider eine meh Karte
Das...
https://geizhals.de/sapphire-pulse-radeon-rx-9070-xt-11348-03-20g-a3429991.html?hloc=at&hloc=de
oder das.
https://geizhals.de/sapphire-pure-radeon-rx-9070-xt-11348-02-20g-a3429921.html?hloc=at&hloc=de
Was ist an den beiden Sapphire Karten besser als bei der Hellhound von PowerColor?
dargo
2025-06-17, 19:36:11
Tiefere min. Drehzahl.
GerryB
2025-06-18, 01:44:54
Die Originalpreise bei Sapphire wären mir derzeit zu hoch.
evtl.:
https://www.mindfactory.de/product_info.php/16GB-Sapphire-Radeon-RX-9070-XT-Pure-Aktiv-PCIe-5-0-x16--Bulk--Retouren_1617578.html
mit UVen und <250W wäre vermutlich geringes Spulenfiepen von nem Rückläufer zu bewältigen
btw.
die 9070nonXT ist inzwischen bei 599€, ... da lag ich in Post#1683 mit 614 noch zu hoch
https://www.notebooksbilliger.de/acer+nitro+amd+rx+9070+16g+oc+876813
dargo
2025-06-18, 08:13:51
Den lauten Acer Schrott will auch keiner haben. :ulol:
GerryB
2025-06-18, 14:36:41
Die kleine nonXT ist auch bei Acer nicht laut.(nur ungünstig ab Werk eingestellt ala XFX)
Sowas "höre" ich auch ohne dumme Smileys.
Ob man die nonXT überhaupt mit 245W (Acer) betreiben muss ?
220W + UVen sind sinnvoller, dann kann man sicherlich von 50%-Fan auf 33% Fan runter, wenn man Vram=92°C
akzeptieren kann.
dargo
2025-06-18, 15:20:41
Wen interessiert 50% Lüfterlärm? :lol: Sind hier alle taub oder was? :freak: Zumal dieses Bild ohne Temps. und RPM eh kompletter Quark ist. Mal wieder ein typischer GerryB-Post.
Edit:
Das Bild ist übrigens von hier, wäre auch zu viel verlangt die Quelle anzugeben. :rolleyes:
https://lanoc.org/review/video-cards/acer-rx-9070-nitro-oc?start=7
Übrigens ein ganz schlechtes Review im Bereich Bewertung der Kühlung. Allerdings kann sich jeder selbst denken wie schrottig der Kühler ist wenn der Vram bei 63% (RPM nicht angegeben) Lüfter bereits 88°C erreicht. Und bei 100% (3.264RPM, ergo Düsenjet X-D) 84°C.
GerryB
2025-06-18, 15:32:06
die typischen voreiligen Dargo -Smileys sind auch nicht hilfreich
Warten wir einfach mal ab, ob sich ein User mit der ACER findet.
Hakim
2025-06-18, 15:36:48
Ich weiß nicht bei Acer, hab schon zu meiner Studien Zeit immer ein Bogen um die Acer Laptops gemacht obwohl P\L die Top waren und ich knapp bei Kohle war. Ich verbinde wahrscheinlich nicht zutreffend super billig mit Acer und habe immer Ace bei der Marke im Kopf, milde Bleiche
Daher schwer eine graka der Marke zu kaufen bei mir
dargo
2025-06-18, 15:48:37
Das Problem bei Acer ist, dass die recht neu im Geschäft der dGPUs sind. Und der erste Kühlerentwurf kommt logischerweise nicht im Ansatz an die Qualität eines Herstellers ran der schon Jahre bis Jahrzehnte in diesem Geschäft tätig ist. Da fehlt einfach die entsprechende Erfahrung.
GerryB
2025-06-18, 15:55:36
Die ersten Acer waren doch bereits mit Intel A770.
https://www.youtube.com/watch?v=pfdNHdfenus
eher
ist es schade, das man keine "echte" Bifrost für die 9070 bringt
Die 7900GRE Bifrost war ein feines Teil mit Vaporchamber.
(leider nur kurz zum Aktionspreis verfügbar)
https://www.youtube.com/watch?v=25bHJc6qwDc
Emil_i_Lönneberga
2025-06-19, 13:58:23
Nächste Woche ist es soweit. Wer macht bei seiner Prime XT den „vorher vs. nachher“ Vergleich?
https://shop.alphacool.com/shop/gpu-wasserkuehlung/amd/14779-alphacool-core-rx-9070-xt-tuf-prime-mit-backplate
anddill
2025-06-23, 23:12:59
Also ich hab hier einen kleinen Vorher/Nachher Vergleich. Allerdings RX 7900XTX gegen RX 9070XT.
Ich habe mich gewundert ob eine gute RDNA4 Karte gegen meine "alte" Referenz RDNA3 Karte anstinken kann.
In den meisten Vergleichen zum Launch der RX 9070XT wurde eine fette 7900XTX wie zB. eine Sapphire Nitro+ verwendet. Die sehr kompakte Referenzkarte ist dagegen deutlich thermisch und Leistungslimitiert. Mich hat also interessiert wie eine fette 9070XT gegen meine Referenzkarte abschneidet.
Die 7900XTX lief bei mit mit 55mV Untervolting, sonst nichts.
Zum Vergleich habe ich mir die Asrock Taichi 9070XT geholt. Das dürfte so ziemlich die fetteste RDNA4 Karte sein die es aktuell gibt. Mit einem der höchsten Werks-OC.
Ich habe aber keinen Bock auf eine ewige Benchmarkorgie gehabt. Und groß Zocken kann ich zZt auch nicht, da mir der Mausarm mächtig wehtut. Also habe ich ein paar einfache schnelle Tests gemacht. Die alte Karte lief mit ihren 55mV Spannungsabsenkung, die Taichi erst in Werkseinstellung, dann mit 65mV Absenkung und Power auf Max (+10%)
1. Starfield. Ich stehe nach der Landung an der Rampe meines Schiffes und schaue auf den nächsten Questmarker. Liegt in ziemlich dichtem Gelände, mit Bauten und Gewächsen. Meine Einstellungen in 4K, mit Settings meist max, nur ein paar Anpassungen. Frame Gen ist an. FSR3 als Kantenglättung mit 100% Renderauflösung.
7900XTX: 111 FPS
9070XT: 113 (117) FPS
2. Monster Hunter Wilds Benchmark. Alles default in 4K höchste Einstellung, nur FSR und Framegen aus.
7900XTX: 59,7 FPS
9070XT: 61,86 (65,23) FPS
3. Monster Hunter mit Raytracing auf High
7900XTX: 52,43 FPS
9070XT 55,0 (58,23) FPS
Stellar Blade Demo. Alles Max, 4K, FrameGen + FSR aus. Start des 2. Demo Abschnitts, Blick die Straße runter.
7900XTX: 72 FPS
9070XT: 60 (62) FPS
Außer in Stellar Blade ist RDNA4 trotz deutlich schlankerem Chip minimal schneller als meine 7900XTX Referenzkarte, im Grunde wie ich es erwartet habe. Bei Stellar Blade liegt die Vermutung nahe daß es Speicherbandbreite mag.
Die Taichi zieht dabei bis ca 470W 370W, bleibt dabei aber flüsterleise. Das war mit der alten Karte deutlich anders.
Bei der Taichi hatte ich meine erste persönliche Begegnung mit dem neuen 16 Pin Highpower Stecker. Meine Fresse ist der klein. In den Videos und Bildern sah das nie so krass aus. Und der Oktopus der da dran hängt ist potthässlich. Bin ja da sonst nicht besonders penibel wie es in meinem PC aussieht, aber da geht echt zu weit. Na mal sehen ob ich da noch was dran ändere.
Der_Korken
2025-06-24, 00:38:38
Wozu auf die 9070XT wechseln, wenn du den Verbrauch auf 7900XTX-Niveau hochschraubst? Da hast du doch quasi auf allen Ebenen Gleichstand zwischen alter und neuer Karte - abgesehen von FSR4 und dem ein oder anderen RT-Game, wo RDNA4 etwas schneller ist.
x-force
2025-06-24, 03:00:21
Die Taichi zieht dabei bis ca 470W
wirklich?
ohne oc, einfach nur power limit auf max
anddill
2025-06-24, 08:36:03
Wozu auf die 9070XT wechseln, wenn du den Verbrauch auf 7900XTX-Niveau hochschraubst? Da hast du doch quasi auf allen Ebenen Gleichstand zwischen alter und neuer Karte - abgesehen von FSR4 und dem ein oder anderen RT-Game, wo RDNA4 etwas schneller ist.
Naja, warum nicht?
wirklich?
ohne oc, einfach nur power limit auf max
Stimmt, waren 370W. Die hat glaub ich 340W Limit im OC-Profil. Mit +10% passt das dann. Werde das oben noch korrigieren.
RoNsOn Xs
2025-06-24, 11:17:07
Also ich hab hier einen kleinen Vorher/Nachher Vergleich. Allerdings RX 7900XTX gegen RX 9070XT.
[...]
Danke für dein Review! Wirklich interessant zu lesen.
Komme auch von der XTX und drüber nachgedacht über einen Wechsel hatte ich auch ein paar Mal - für 0,37sek. ungefähr.
Zugegeben - möchte man gern mal wieder neues Spielzeug testen, zumindest mir gehts so. Die Vernunft siegt dann aber doch.
Die Pro-Argumente wären lediglich der Verbauch + Lautstärke.
Ansonsten vermutlich eher ein Verlustgeschäft. Daher freue ich mich auf die nächste Generation. =)
][immy
2025-06-24, 11:36:47
Ja, die zugewinne sind nett, aber von einer 7900er ist es eher ein Schritt zur Seite und einer zurück (wegen dem Speicher). Hier fehlt AMDs größerer Chip schon ein wenig. Bleibe daher erst mal bei der 7900xt, auch wenn mich neue Technik reizt.
Aber abgesehen davon ist der Fortschritt auch beim RT relativ klein (wenn auch mit kleinerem chip).
Aber leider ist es ja insgesamt so, das die Technik nicht mehr in dem Tempo Vorrang schreitet wie "früher". Muss man sich halt auch erst dran gewöhnen das es nur noch kleine Fortschritte gibt.
Ich bin von einer 7900XT MBA mit Wasserblock auf die 9070XT Red Devil gewechselt.(Wasserblock fehlt noch:-( )
Im Raster sind das je nach Engine/Spiel ungefähr 10-15% Mehrleistung mit Stock Einstellungen bei beiden Karten.
RT ist klar schneller was aber nicht überrascht.
Insgesamt fühlt sich RDNA4 runder an.
FSR4 hatte ich Interessenhalber mir bei Space Marine 2 angeschaut, macht einen recht guten Eindruck.
alles in allem ein gutes Sidegrate, dank Ebay fast zum Nulltariff^^
Allerdings sind die 16GB recht knapp, bei meiner 3440x1440 Auflösung sind teilweise bis zu 15GB belegt. für 4K/5K gefühlt zu wenig Speicher.
Habe heute meinen Block von AC bekommen-Freu. Leider komme ich die nächste Zeit wohl nicht zum Umbau....
Habe heute meinen Block von AC bekommen-Freu. Leider komme ich die nächste Zeit wohl nicht zum Umbau....
Nice, falls du Lust hast kannst du beim umbauen den Chip ausmessen?
ich wollte noch das Kryosheet vorab zuschneiden was IMO das beste ist was man nutzen kann bei GPU Wasserblöcken.
das Minus pad pro habe ich nach der Anleitung von AC schon passend zugeschnitten^^ die beiligenden Sachen finde ich eher mäh.
Der_Korken
2025-06-27, 19:50:10
Hellhound XT min RPM :D
Hatte mir etwas mehr oder besser gesagt weniger erhofft.
dargo
2025-06-27, 20:12:54
Nimm einfach einen größeren Widerstand, der verbaute scheint zu wenig Ohm zu haben.
Der_Korken
2025-06-27, 20:34:18
Kein Bock wieder 4-5 Wochen zu warten. Ich bin gerade nicht bei mir zu Hause und kann deswegen die Akustik nicht vergleichen, aber die 100RPM könnten den Ausschlag geben, dass ich es jetzt aus den Gehäuselüftern nicht mehr raushören kann.
War übrigens dieses Teil hier: https://www.ebay.de/itm/123825004087
Ich habe es so zurechtbiegen können, dass die Kabelwulst unterhalb des PCBs nur so 1-1,5mm überstand. Das hat zumindest bei mir gepasst trotz kleinem Kühlkörper auf dem MB.
dargo
2025-06-27, 20:44:01
Kein Bock wieder 4-5 Wochen zu warten.
:confused:
Du entfernst den Schrumpfschlauch, schnappst dir einen Multimeter und misst den angebrachten Widerstand. Mit den Daten gehst du zum Conrad/Westfalia oder was auch immer und nimmst gleich 3-5 etwas größer dimensionierte Widerstände mit (Centbeträge) und lötest den passenden ein. Vor dem Löten natürlich zum testen erstmal Lüsterklemmen verwenden.
Wir sprechen von den Dingern hier.
https://www.conrad.de/de/p/weltron-401994-hochlast-widerstand-68-axial-bedrahtet-5-w-5-1-st-401994.html
Auf die Wattzahl achten. Mit 5W bist du bei 3 Lüftern auf der sicheren Seite.
PS: nichts anderes ist da bei deinem Adapter unter dem Schrumpfschlauch angebracht, nur halt etwas zu wenig Ohm.
btw.
Hast du keinen Multimeter kannst du den Ohmwert auch an den farbigen Ringen ablesen. Dafür gibt es eine Ohm-Farbschablone. Ob es die auch im Netz in digitaler Form gibt weiß ich allerdings nicht.
Edit:
Ich habe Conrad/Westfalia erwähnt weil die Läden es oft in Großstädten gibt. Geht natürlich auch alles Online, nur steht der Preis in keinem Verhältnis zu den Versandkosten. Ein Beispiel...
https://www.voelkner.de/products/30319/Weltron-401994-Hochlast-Widerstand-68-axial-bedrahtet-5W-5.html?ref=43&offer=0&utm_source=google&utm_medium=organic&utm_campaign=fpla
Der_Korken
2025-06-27, 20:55:06
Ich habe einmal in meinem Leben versucht Kabel zusammenzulöten, nach Youtube-Anleitung(en). Hat entweder null gehalten oder war bröselig wie sonst was, obwohl ich imho alles exakt so gemacht habe wie in der Anleitung. Keine Ahnung, was ich falsch gemacht habe, ich habe es stundenlang probiert und irgendwann schlicht aufgegeben. Ne Graka häng ich jedenfalls nicht an meine gelöteten Kabel :freak:.
dargo
2025-06-27, 21:04:48
Du sollst auch vorher löten bevor der Adapter an der Graka hängt. ;) Hier habe ich was für dich bezüglich Farbcodes gefunden.
jHYLKBvjt2E
Der_Korken
2025-06-27, 21:09:08
Das mit den Ringen weiß ich alles und auch die Zusämmenhänge zwischen Spannung, Strom und Widerstand. Es geht nur um das rein handwerkliche Löten an sich. Deswegen fasse ich das Teil nicht an.
dargo
2025-06-27, 21:12:56
Wenn du beim Löten Schwierigkeiten hast kannst du auch mit Lüsterklemmen arbeiten ohne löten zu müssen, hatte ich auch schon mal erwähnt.
Der_Korken
2025-06-27, 21:21:40
Die kriegt man da nicht unter. Es war schon mit dem Kabel sau knapp, dass es zwischen MB und Graka-Kühler passt. Und unten oder oben was raushängen lassen mit nem längeren Kabel, will ich aus optischen Gründen nicht. Vielleicht hau ich irgendwann mal meinen Vater an, der das als Elektriker sicher besser hinkriegt, aber fürs erste bleibt es so.
Wir können aber festhalten, dass PWM-Lüfter (bisher) problemlos mit solchen Spielereien funktionieren und dass 27 Ohm bei den Hellhound-Lüftern sehr wenig sind.
dargo
2025-06-28, 06:42:22
Ach... dein Vater ist sogar Elektriker? Ja dann lass ihn das doch bei Gelegenheit machen. :) Und ja, 27 Ohm sind sehr wenig. Aber schön zu sehen, dass es wie du schon sagst funzt. Dann hatte ich das früher auch schon mit PWM gebastelt bei Grenada. Wäre auch etwas seltsam wenn nicht bei 4Pin.
OgrEGT
2025-06-28, 08:12:25
Ich schätze hier geht es um einen Widerstand in Reihe um die Spannung zu senken so wie das auch Noctua macht. Wenn ihr die Spezifikationen der Lüfter kennt könnt ihr bei gewünschter Zielspannung den notwendigen Widerstand ausrechnen... zu beachten wäre dass Lüfter eine Mindest Anlauf Spannung benötigen so dass der Widerstand nicht zu hoch werden darf...
Der_Korken
2025-06-28, 10:38:55
Das mit der Anlaufdrehzahl wäre nicht so das Problem, da ich für 60°C (=Anlauftemperatur) eine höhere Drehzahl einstellen kann als für den Bereich darunter bis 45°C (=Abschalttemperatur). Ich will eigentlich nur bezwecken, dass bei mäßiger Last die Lüfter anbleiben, bis ich wieder richtig im Idle bin, statt ständig an- und auszugehen.
dargo
2025-06-28, 11:04:36
Ich schätze hier geht es um einen Widerstand in Reihe um die Spannung zu senken so wie das auch Noctua macht. Wenn ihr die Spezifikationen der Lüfter kennt könnt ihr bei gewünschter Zielspannung den notwendigen Widerstand ausrechnen... zu beachten wäre dass Lüfter eine Mindest Anlauf Spannung benötigen so dass der Widerstand nicht zu hoch werden darf...
Wenn 27 Ohm bei ihm ca. 80-100RPM absenken dann würde ich einfach 68 Ohm nehmen, das dürfte passen. Die Anlaufgeschwindigkeit der Lüfter ist bei einer custom Lüftersteuerung eh egal. Da kann er einfach einen höheren Wert an erster Stelle ansetzen damit die Lüfter bsw. mit min. 600RPM laufen. Und das schaffen die, siehe Hellhound non XT. Alternativ nochmal 27 Ohm dazu in Reihe schalten um grob ca. weitere 100RPM abzusenken. So ganz linear wird sich das nicht verhalten mit der Absenkung, aber hier geht es nicht um jede einzelne Umdrehung. :tongue:
horn 12
2025-06-28, 11:10:18
Ach Gott die 730 bis 840 U/ Min sind doch nicht zu hören oder bist 20 cm neben deinem Gehäuse
Bis gar 1400 oder 1600 U/ min ist die Karte doch kaum bis minimal störend
Idle sowieso so gut wie nicht hörbar
Der_Korken
2025-06-28, 11:25:08
Ach Gott die 730 bis 840 U/ Min sind doch nicht zu hören oder bist 20 cm neben deinem Gehäuse
Bis gar 1400 oder 1600 U/ min ist die Karte doch kaum bis minimal störend
Idle sowieso so gut wie nicht hörbar
Das System wird u.a. auch zum arbeiten genutzt und da hat es leise zu sein. 850RPM von der Graka höre ich da eindeutig raus. Aber das Ziel war bei mir sowieso nicht die Lüfter dann dauerhaft damit laufen zu haben, sondern das ständige An- und Abschalten zu reduzieren.
horn 12
2025-06-28, 11:51:15
Ok, dies überlas ich wohl
dargo
2025-07-02, 09:36:29
Eine Sache zur 9070XT würde mich noch interessieren. Weiß man schon ob der Samsung Vram, der ja bekanntlich kühler läuft als Hynix (dafür etwas langsamer), mehr OC beim Speichertakt zulässt? Und wirken sich "Fast Timings" im Treiber dann auch messbar schneller aus als beim Hynix oder nicht? Kann man dazu pauschal schon was sagen?
w0mbat
2025-07-02, 10:23:58
SKHynix GDDR6 ist schneller und etwas heißer, weil er bessere timings hat. Eine 9070 XT mit SKHynix ist ca. 3% schneller als eine mit Samsung.
Der Samsung hat durch die lockeren timings meist etwas mehr OC-Potential, aber damit reduziert man nur etwas den Abstand zu SKHynix. Dafür läuft er ein paar Grad kühler.
dargo
2025-07-02, 12:08:50
SKHynix GDDR6 ist schneller und etwas heißer, weil er bessere timings hat.
Gibt es dafür auch eine Quelle oder ist das nur deine Vermutung? Jedenfalls hatte ich noch nie höhere Temperaturen durch schärfere Timings gemessen. Sicher, dass die Spannungen bei Samsung und Hynix identisch sind? Zumindest bei Spannungsdifferenzen wären Temperaturunterschiede für mich eher nachvollziehbar.
nairune
2025-07-02, 12:41:54
Den Speicher kannst du dir eh nicht aussuchen, wenn du keine Rücksendespielchen machen willst.
Kann gerne noch was testen (mit Hynix), aber nicht gerade heute :D
dargo
2025-07-02, 14:21:51
Den Speicher kannst du dir eh nicht aussuchen, wenn du keine Rücksendespielchen machen willst.
Kann gerne noch was testen (mit Hynix), aber nicht gerade heute :D
Bin gerade von der Arbeit zurück, mein Auto hatte 39°C draußen angezeigt. X-D Und nein, natürlich würde ich die Karte nicht zurück schicken nur weil da zufällig Hynix drauf ist.
w0mbat
2025-07-02, 15:24:26
Eher zurückschicken wenn es Samsung ist, da langsamer.
DrFreaK666
2025-07-02, 15:32:23
Wie viel Prozent waren es nochmal? 4%?
Hakim
2025-07-02, 17:08:33
gutes Plus mit der Zeit über die Treiber
https://www.computerbase.de/news/grafikkarten/gut-gereift-treiber-updates-machen-radeon-rx-9070-xt-schneller.93363/
dargo
2025-07-02, 18:41:46
gutes Plus mit der Zeit über die Treiber
https://www.computerbase.de/news/grafikkarten/gut-gereift-treiber-updates-machen-radeon-rx-9070-xt-schneller.93363/
Bis zu +27% hätte ich jetzt nicht erwartet. Gerade in solchen Beispielen muss da noch was erheblich geklemmt haben.
Eher zurückschicken wenn es Samsung ist, da langsamer.
Mir sind ehrlich gesagt auf Dauer die 80+°C lieber als diese 90+°C Orgien. Auf den mickrigen Unterschied scheiße ich. Zumal ich das über den Treiber mit hoher Wahrscheinlichkeit eh kompensieren kann.
Der_Korken
2025-07-02, 19:40:13
Bezüglich des Leistungsunterschieds habe ich das hier gerade gefunden, obwohl ich eigentlich nach was anderem gesucht habe: https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/News/GDDR6-Speicher-von-SK-Hynix-ist-schneller-1474893/
Liegt so im Bereich von 3-4% in diesem Benchmark. Andere wurden leider nicht getestet. VRAM-Temperaturen würde ich entspannt sehen, wenn du eh drosselst. Siehe meinen alten Post: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13753259#post13753259
Man sollte die Karte natürlich trotzdem nicht mit Minimaldrehzahl unter Volllast schmoren lassen. VRAM-OC kostet übrigens sichtbar GPU-Takt wenn man durch Powertarget und co. deutlich unter 3Ghz unterwegs ist. Dadurch habe ich bisher quasi keinen Gewinn durch VRAM-OC feststellen können, sofern ich das Powertarget nicht mit anhebe (aber das könnte ich auch VRAM-OC tun ...).
Bis zu +27% hätte ich jetzt nicht erwartet. Gerade in solchen Beispielen muss da noch was erheblich geklemmt haben.
Mir sind ehrlich gesagt auf Dauer die 80+°C lieber als diese 90+°C Orgien. Auf den mickrigen Unterschied scheiße ich. Zumal ich das über den Treiber mit hoher Wahrscheinlichkeit eh kompensieren kann.
Kauf ne Mercury, da bekommst du noch nicht einmal die 80°C zu Gesicht und dies trotz 75% der Lüfter. Mein Sohn hat die Mercury übernommen und ist glücklich ohne Ende! Ihm war es etwas zu laut und ich gab ihm eine kurze Anweisung, wie man das Ding leise bekommt. Nix mit Curve, einfach max. 75% und läuft sehr leise!
RoughNeck
2025-07-02, 21:19:49
Ein Grafikkarten Kauf will gut überlegt sein.
Da muss man Monate lang recherchieren, die Pro & Cons abwägen, auf den richtigen Preis warten und es müssen die Planeten in der richtigen Konstellation stehen :biggrin:
Außerdem wenn Dargo eine kaufen würde, was hätten wir dann zu lesen?
nairune
2025-07-02, 21:30:02
75% Lüfter :freak:
Ist das schon über 2000 rpm?
Sollten so um die 1700 U/min sein. Aber da soll sie echt leise sein. Der Kühler und Lüfter sind auf der XFX echt okay!
dargo
2025-07-02, 21:34:54
Sollten so um die 1700 U/min sein. Aber da soll sie echt leise sein.
Wo bin ich hier nur gelandet? :lol:
nairune
2025-07-02, 21:53:15
Die hat doch 100mm Lüfter? Die brauche ich nicht hören, um zu wissen, dass sie deutlich hörbar sind bei 1700 Umdrehungen, aber gut, die Ansprüche sind eben verschieden.
Die Prime hat 92mm Lüfter und da finde ich <= 1100 sehr gut, bis 1400 vertretbar, bis 1600 könnte ich verstehen dass andere das ok finden, drüber = laut. Bei 1700 fängt man an auch Motoren oder jedenfalls etwas "nicht-rauschiges" zu hören, fänd ich unerträglich.
][immy
2025-07-02, 23:17:14
Bis zu +27% hätte ich jetzt nicht erwartet. Gerade in solchen Beispielen muss da noch was erheblich geklemmt haben.
Mir sind ehrlich gesagt auf Dauer die 80+°C lieber als diese 90+°C Orgien. Auf den mickrigen Unterschied scheiße ich. Zumal ich das über den Treiber mit hoher Wahrscheinlichkeit eh kompensieren kann.
na, das gab es aber eigentlich bei jeder GPU generation, das da ein Treiber bei dem einen oder anderen Spiel eine Handbremse gelöst hat.
Würde ja fast tippen, das da eher ein CPU-Treiber-Limit eine Rolle spielte, denn in 4k sind die Werte dann, deutlich, deutlich geringer.
Die 9070er Reihe hat auf jeden Fall dafür gesorgt, das die 7900 XT(x) Karten im Gebrauchtwaren-Handel deutlich gefallen ist, trotz kaum unterschied zu den aktuellen Karten, kann man die derzeit für teils unter 500€ bekommen.
Aktuell scheint AMD ja alle Energie in FSR4 zu stecken, vermutlich damit man irgendwann auch wieder mit was größerem kommen kann, welche dann direkt mit einer Breiten Palette an unterstützten Spielen mithalten kann. Denn größere Karten würden sonst wegen DLSS (was inzwischen viele Benchmark-Artikel einsetzen) wohl in der Luft zerfezt werden.
dargo
2025-07-03, 06:59:04
Die hat doch 100mm Lüfter?
Korrekt. Und ich habe schon viel quer gelesen und rausgefunden, dass 1000RPM bei diesen Lüftern bereits lauter sind als höhere Drehzahlen bei bsw. Hellhound oder Pulse/Pure.
Wo bin ich hier nur gelandet? :lol:
Für ihn ist es leise! Selbst mit originaler Curve sind es lediglich 38 dba. Also, komm mal runter. Dann sind es bei ihm halt 34 dba, allerdings geht sein Lüfter runter bis auf 367 U/Min! Und jetzt kommst du ...
dargo
2025-07-04, 08:40:48
Für ihn ist es leise! Selbst mit originaler Curve sind es lediglich 38 dba.
Schön für ihn. "Leise" heißt für mich 30-31dbA, nur damit du einen Anhaltspunkt hast. Und diese Angabe bezieht sich auf ein gedämmtes Gehäuse und kein schweizer Käse! Beim letzteren müsste es noch etwas weniger sein. Und natürlich ohne irgendwelche nervigen Motorgeräusche. Sprich... die Angaben beziehen sich auf reines Luftrauschen.
btw.
Ich frage mich auch was du da gemessen hast? :freak: CB misst sehr laute 45dBA bei ~1.700RPM einer Mercury OC.
https://www.computerbase.de/artikel/grafikkarten/powercolor-rx-9070-xt-red-devil-hellhound-test.92205/seite-2#abschnitt_lautstaerke_unter_last
Bei CB kann man auch wunderbar sehen wie schlecht die XFX Lüfter bei N48 im Bereich Akustik geworden sind. Einfach mal die RPM und Lautstärke zwischen Nitro+ und Mercury vergleichen. Fairerweise muss man natürlich dabei sagen...
Mercury OC = 72°C Hotspot
Nitro+ = 85°C Hotspot
Ergo nicht vergleichbar. Mir gehts dabei nur um die Aussage 1.700RPM wären bei der Mercury leise. Das ist reiner Humbug.
Hier kann man dann sehen, dass die XFX-Lüfter selbst bei ~1.200RPM immer noch 36dBA raushauen, was ich nicht als leise bewerte.
https://www.computerbase.de/artikel/grafikkarten/radeon-rx-9070-custom-design-test.91526/seite-2#abschnitt_lautstaerke_unter_last
GerryB
2025-07-06, 09:00:29
ein Review ist kein Review, may be CB hat ein schlechtes Exemplar erwischt (x)
würde schon mehrere Messungen/Reviews vgl.
und ja wenn man die Mercury ala Nitro auf 83°C-Hotspot und 90°C Vram einstellt, ist da Spielraum ohne Ende
und mit 304W oder 280W isses dann ein NoBrainer für 24/7
83°C/69°C = 120%
280W/358W = 78%
--> sollte doch in Summe 40% ausmachen bei nem silent 24/7
(x) Irgendein User@threadXYZ hatte auch Pech mit seiner Magnetic, ... würde persönlich die normale RGB-OC bevorzugen.
(sollte weniger anfällig für Fertigungstoleranzen sein)
robbitop
2025-07-06, 09:09:52
Immer wieder ärgere ich mich über den Mehraufwand und den Mehrpreis beim Upgrade meiner Wakü. Als Gegenpol freue ich mich immer wenn ich sehe wie wählerisch man bei GPUs sein muss damit es leise ist und dann muss man ggf noch an Lüfterkurven spielen und undervolten. Und ich kann einfach irgendein Modell nehmen und es von der Leine lassen. Macht keinen Unterschied in der Lautstärke. Und die paar W machen bei meiner nicht zu exzessiven Zockzeit auf der Jahresabrechnung ohnehin keinen bedeutenden Unterschied. Eine Mischung aus „nervt“ und „alles richtig gemacht“ X-D
OgrEGT
2025-07-06, 09:34:34
Schön für ihn. "Leise" heißt für mich 30-31dbA, nur damit du einen Anhaltspunkt hast. Und diese Angabe bezieht sich auf ein gedämmtes Gehäuse und kein schweizer Käse! Beim letzteren müsste es noch etwas weniger sein. Und natürlich ohne irgendwelche nervigen Motorgeräusche. Sprich... die Angaben beziehen sich auf reines Luftrauschen.
btw.
Ich frage mich auch was du da gemessen hast? :freak: CB misst sehr laute 45dBA bei ~1.700RPM einer Mercury OC.
https://www.computerbase.de/artikel/grafikkarten/powercolor-rx-9070-xt-red-devil-hellhound-test.92205/seite-2#abschnitt_lautstaerke_unter_last
Bei CB kann man auch wunderbar sehen wie schlecht die XFX Lüfter bei N48 im Bereich Akustik geworden sind. Einfach mal die RPM und Lautstärke zwischen Nitro+ und Mercury vergleichen. Fairerweise muss man natürlich dabei sagen...
Mercury OC = 72°C Hotspot
Nitro+ = 85°C Hotspot
Ergo nicht vergleichbar. Mir gehts dabei nur um die Aussage 1.700RPM wären bei der Mercury leise. Das ist reiner Humbug.
Hier kann man dann sehen, dass die XFX-Lüfter selbst bei ~1.200RPM immer noch 36dBA raushauen, was ich nicht als leise bewerte.
https://www.computerbase.de/artikel/grafikkarten/radeon-rx-9070-custom-design-test.91526/seite-2#abschnitt_lautstaerke_unter_last
Schalldruck Messungen sind auch sehr vom Mikrofon dem Messraum und v.a. dem Abstand des Mikrofons von der Schallquelle abhängig... Deshalb sind auch die meisten Messungen nicht vergleichbar...
OgrEGT
2025-07-06, 09:38:22
Immer wieder ärgere ich mich über den Mehraufwand und den Mehrpreis beim Upgrade meiner Wakü. Als Gegenpol freue ich mich immer wenn ich sehe wie wählerisch man bei GPUs sein muss damit es leise ist und dann muss man ggf noch an Lüfterkurven spielen und undervolten. Und ich kann einfach irgendein Modell nehmen und es von der Leine lassen. Macht keinen Unterschied in der Lautstärke. Und die paar W machen bei meiner nicht zu exzessiven Zockzeit auf der Jahresabrechnung ohnehin keinen bedeutenden Unterschied. Eine Mischung aus „nervt“ und „alles richtig gemacht“ X-D
So groß ist der Aufwand gar nicht... bei Radeon kann die Lüfterkurve in 5min eingestellt werden... und das beste ist dass alle Einstellungen exportiert und importiert und somit immer schnell wieder hergestellt werden können :up:
dargo
2025-07-06, 10:03:16
Schalldruck Messungen sind auch sehr vom Mikrofon dem Messraum und v.a. dem Abstand des Mikrofons von der Schallquelle abhängig... Deshalb sind auch die meisten Messungen nicht vergleichbar...
CB misst unter gleichen Bedingungen alle Karten. Und die Lüfter der Mercury bei CB liefen mit gleichen RPM (1.700) wie bei gedi @Stock. Ergo absolut vergleichbar. Wer konzentriert alle Reviews liest wird feststellen, dass die XFX-Lüfter bei N48 definitiv unter 1.000RPM müssen damit die genauso leise werden wie die getesteten Karten von CB um auf die 30-31dBA von CB zu kommen.
@GerryB
Bei den Werten von techpowerup sieht man auch sehr schön wie laut die XFX-Lüfter tatsächlich sind. Trotz nur 200RPM mehr sind die Lüfter um ganze 10dbA lauter als bei der Nitro+. Wenn mich nicht alles täuscht bedeuten +3dbA bereits doppelt so laut.
RoughNeck
2025-07-06, 11:03:46
3 - 4 DB spricht man von einer Verdoppelung der Lautstärke.
Ich betreibe meine 5090 Master von Gigabyte auch im Quiet Profil, da die Lüfter so etwa 250 RPM niedriger drehen können was einen deutlichen Unterschied macht.
Allgemein kann ich nicht verstehen warum die Hersteller nicht noch niedrigere RPM zulassen.
Weg mit den nutzlosen Fan Stop, Zero RPM Mode und lasst die Lüfter langsam drehen.
dargo
2025-07-06, 11:28:09
Allgemein kann ich nicht verstehen warum die Hersteller nicht noch niedrigere RPM zulassen.
Weg mit den nutzlosen Fan Stop, Zero RPM Mode und lasst die Lüfter langsam drehen.
Der Witz an der Sache ist ja... sie lassen es zu teilweise. Schau dir zb. die Hellhound XT vs. non XT bei N48 an. Das sind gleiche Lüfter. Da hat einfach irgendein Depp @Bwler nicht zu Ende gedacht.
Der_Korken
2025-07-06, 12:18:47
Allgemein kann ich nicht verstehen warum die Hersteller nicht noch niedrigere RPM zulassen.
Weg mit den nutzlosen Fan Stop, Zero RPM Mode und lasst die Lüfter langsam drehen.
Zero RPM ist sinnvoll, um die Lüfter zu schonen. Ohne die Möglichkeit die Temperaturschwellen dafür anzupassen und - wie du schon sagst - niedrige Lüfterdrehzahlen zuzulassen, ist es aber einfach nicht zu Ende gedacht.
Lurtz
2025-07-06, 12:44:28
Ist das dauerhafte Laufen so viel fordernder als ständiges An/Abschalten?
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.