PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 9070 & 9070 XT Review-Thread


Seiten : 1 2 3 4 [5] 6 7

Hakim
2025-03-24, 22:21:57
Kleiner Test des "Referenz" Modells

https://videocardz.com/newz/unreleased-oem-edition-of-amd-radeon-rx-9070-has-been-tested

Lurtz
2025-03-24, 22:25:55
Das mit dem Fiepen und Zirpen scheint mir total random zu sein. Zu jedem Modell liest man, die seien gleichzeitig total leise und haben Spulenrasseln aus der Hölle. Ich habe hier schon gelesen, dass Pulse und somit auch Pure ebenfalls nicht tragbar wären.

Bin da auch ratlos. Scheint ohne Lotterie nicht mehr anders zu gehen. Aber immerhin fiepen ja auch OLEDs und Co fleißig, da gehts dann einfach in der allgemeinen Kakophonie unter?

aufkrawall
2025-03-24, 22:36:28
Selbst bei -500MHz eingestellt ist mit -80mV der Takt im PT noch etwas höher als ohne UV :freak: :
https://s1.directupload.eu/images/250324/ns92zt7k.png
https://s1.directupload.eu/images/250324/3ievz2oe.png
https://s1.directupload.eu/images/250324/lfhgti7h.png

Kein Wunder, dass das so miserabel funktioniert, wenn man den Takt effektiv nicht begrenzen kann bzw. UV sogar Zwangs-OC mit sich bringt.

Der_Korken
2025-03-24, 23:37:58
Bin da auch ratlos. Scheint ohne Lotterie nicht mehr anders zu gehen. Aber immerhin fiepen ja auch OLEDs und Co fleißig, da gehts dann einfach in der allgemeinen Kakophonie unter?

OT: Mit OLED hatte ich Glück (oder ich hörs nur nicht :freak:). Dafür mit Netzteilen nicht (https://www.computerbase.de/forum/threads/corsair-sf750-brummt.2233796/). Hab schon Angst vor der ersten 9070, die ich kaufe. Hab damals 5700XTs zurückgeschickt wegen unerträglichen Gerassels unter Last. Die erste hat spielend jeden Lüfter übertönt.

Selbst bei -500MHz eingestellt ist mit -80mV der Takt im PT noch etwas höher als ohne UV :freak: :
https://s1.directupload.eu/images/250324/ns92zt7k.png
https://s1.directupload.eu/images/250324/3ievz2oe.png
https://s1.directupload.eu/images/250324/lfhgti7h.png

Kein Wunder, dass das so miserabel funktioniert, wenn man den Takt effektiv nicht begrenzen kann bzw. UV sogar Zwangs-OC mit sich bringt.

Die Vanilla 9070 hat einfach zu wenig PT, um in irgendein Taktlimit zu laufen. Da hätte AMD den Slider von -1000 bis +500 freigeben müssen statt andersrum. Alles über +200 ergibt selbst für Extreme-OC überhaupt keinen Sinn.

Disco_STFU
2025-03-25, 08:36:22
https://www.computerbase.de/news/grafikkarten/amd-ceo-lisa-su-bestaetigt-zehn-mal-mehr-radeon-9070-als-normalerweise-in-woche-1-verkauft.91913/

Soviel zum Thema "es gab/gibt keinen Run auf die Karten..."

Lurtz
2025-03-25, 09:24:22
Hoffen wir mal, dass das Entwickler motiviert vermehrt Wert auf FSR 3.1/4-Integration zu legen.

Zeigt aber auch wieder, dass AMD durchaus gekauft wird, wenn sie wirklich gute Produkte auf den Markt bringen.

Der_Korken
2025-03-25, 09:47:45
Hoffen wir mal, dass das Entwickler motiviert vermehrt Wert auf FSR 3.1/4-Integration zu legen.

Das hoffe ich auch. Nvidias Paperlaunch ist die Gelegenheit für AMD hiermal wieder einen Fuß in die Tür zu bekommen, denn wenig Marktanteil und schlechter Support von Entwicklern sind hier ein absoluter Teufelskreis.

DrFreaK666
2025-03-25, 12:20:19
...Zeigt aber auch wieder, dass AMD durchaus gekauft wird, wenn sie wirklich gute Produkte auf den Markt bringen.

Das liegt aber auch an NVs Schwäche.
Da hat AMD zusätzlich Glück gehabt

Achill
2025-03-25, 12:22:49
Ok. Auf RDNA3 und 4 geht das jedenfalls, 2 weiß ich nicht mehr.

Mit den MPT konnte man ZeroFan deaktivieren auf RDNA2 ..

prinz_valium_2
2025-03-25, 12:31:34
falscher topic

Der_Korken
2025-03-25, 12:46:47
Mit den MPT konnte man ZeroFan deaktivieren auf RDNA2 ..

Deaktivieren ging (mit RDNA1) schon immer. Aber Aktivieren war nicht möglich, wenn man eine eigene Lüfterkurve eingestellt hat, auch mit MPT nicht. Dafür konnte man dort die Ein- und Ausschaltschwellen der Lüfter festlegen, was ziemlich angenehm war, wenn der Hersteller da nur ein winziges Intervall eingestellt hat und die Lüfter bei Teillast ständig an- und ausgegangen sind. Ich schätze mal das geht nach wie vor nicht mit Boardmitteln?

RoNsOn Xs
2025-03-25, 13:12:32
Jup, bei RDNA3 geht die Schwelle nicht einzustellen. Empfinde ich auch etwas schade.

Dimon
2025-03-25, 16:23:38
Beim Beta kann ich den core verstellen wie ich will, der übernimmt nichts, taktet immer vollgas :freak:

nun habe ich bei Steel Nomad und -30% PL / -100mv ab der 25 sekunde einen ausschlag beim core um die 3450 mhz, davor 2550 ? irgendwie komisch

aufkrawall
2025-03-25, 17:39:21
Ich schätze mal das geht nach wie vor nicht mit Boardmitteln?
Das geht, wie bei Nvidia auch, gar nicht.

gedi
2025-03-25, 19:05:48
Der Taktslider ist für den Moment komplett verbuged. Ins "+" funktioniert er so wie angenommen, aber "-" funktioniert überhaupt nicht! Hier sollten sie dringend nachjustieren!

aufkrawall
2025-03-25, 19:28:51
Doch, funktioniert. Aber hat halt kaum noch einen Effekt, wenn du im PT hängst. Wenn man das nicht tut, ist der Einfluss deutlich vorhanden:
https://s1.directupload.eu/images/250325/zloe2ooz.png
https://s1.directupload.eu/images/250325/2argp6py.png

gedi
2025-03-25, 19:39:57
Ja okay, aber der Ansatz ist Mist, sorry!

Es sollte einen Schalter geben wie "enhance Performance", welcher per default auch aktiviert sein darf, aber bei Deaktivierung tatsächlich nur das ausgibt, was eingestellt wurde.

aufkrawall
2025-03-25, 20:15:51
Tjo. -80mV -200MHz reduziert mir den Verbrauch um 10% und erhöht die Performance um 1-2%. Und ob das stabil ist, ist auch nicht garantiert. :freak:
Ohne die -200MHz ist es das jedenfalls schon mal nicht. Und, wie vorher schon gesagt, ist es bei -200Mhz -120mV auch direkt wieder instabil.
Da geht eigentlich gar nichts.

ashantus
2025-03-25, 23:17:19
Bin da auch ratlos. Scheint ohne Lotterie nicht mehr anders zu gehen.
Doch da kann ich eine Empfehlung aussprechen zum Spulenfiepen. Die Red Devil. Ist wohl auch extrem leise. Es gibt niemand der sich bisher über die Karte beschwert hat. Nur auf die Bauhöhe der Backplate achten.

Wiseman
2025-03-26, 01:17:20
Hat jemand von der Hellhound XT schon ein gutes Review gesehen oder hat selber eine und kann berichten, wie gut sich der Kühler schlägt?

Warum in die Ferne schweifen, wenn das Gute liegt so nah?

5 home-made Benchmarks mit 'ner Hellhound 9070XT

Assassin's Creed Shadows in 4k: 51°C - 812 RPM
Forza Horizon 5 in 4k: 52°C - 814 RPM
God of War Ragnarök in 4k: 52°C - 812 RPM
Horizon Forbidden West in 4k: 52°C - 810 RPM
The Last of Us Part I in 4k: 51°C - 807 RPM

Beim Gaming in 4k ist meine Hellhound 9070XT mucksmäuschenstill und erzeugt null Spulenfiepen. (War übrigens bei meiner Hellhound 7900XTX genauso.)

IMHO-Empfehlungen: a) starkes Netzteil, laut PowerColor 800 W (ich selbst habe das Be Quiet Straight Power 12 1000 W) b) VSync Off

ashantus
2025-03-26, 02:04:08
Warum in die Ferne schweifen, wenn das Gute liegt so nah?


Ähm, Du hast überall um die 215 Watt Verbrauch. Das ist der Wert der non-XT.
Bist Du sicher, daß es eine XT ist und nicht die normale non-XT?

horn 12
2025-03-26, 03:54:06
Wisemann fährt folgende Settings bei seiner 9070XT Hellhound,
ich bei meiner Hellhound XT nutze doch etwas mehr Powerlimit.

Wisemann seine Settings wären:

0 Preset
Minus 30% Powerlimit
Lüfter bei max. 50%

Lurtz
2025-03-26, 08:26:12
Doch da kann ich eine Empfehlung aussprechen zum Spulenfiepen. Die Red Devil. Ist wohl auch extrem leise. Es gibt niemand der sich bisher über die Karte beschwert hat. Nur auf die Bauhöhe der Backplate achten.
Tja, wenn man Lust hat die Scheine hinzulegen... Da würde ich lieber undervolten und bei besserem PLV mit dem bisschen weniger an Leistung leben :redface:

Emil_i_Lönneberga
2025-03-26, 10:26:53
https://forum.alphacool.com/threads/what-do-you-want.61/page-10#post-30503

Confirmed and in work:
Powercolor:
RX 9070XT Hellound
RX 9070XT Red Devil

XFX
RX 9070XT Mercury

Asus
RX 9070XT Prime
RX 9070XT TUF

Gigabyte
RX 9070XT Aourus
RX 9070XT Gaming

Sapphire
RX 9070XT Pure
RX 9070XT Nitro+

And before you guys are asking.... we will make more cooler for more models.

Tigershark
2025-03-26, 11:04:21
Sehr cool. Ich habe heute die Bestätigung für das send-in Programm bekommen für meine Sapphire 9070 non-XT... die hatte ich schon wieder zurückgeschickt, aber hey - kostenloser Wasserblock, also eben nochmal eine re-order gemacht :-P

Spring
2025-03-26, 12:45:39
Meine XFX Mercury Radeon RX 9070XT OC Gaming Edition (3x8Pin) ist heute angekommen und wird abends ausgiebig getestet. Mal gucken was so geht gegen die 6950XT. Und mit PCIe 3 (Mobo gekauft Januar 2018) ;)

downforze
2025-03-26, 13:23:39
Mal eine hypothetische Überlegung:
Die 9070 non XT ist 10% langsamer als die 9700 XT und verbraucht 220 W.
Wenn ich also die 9700 XT auf 220 W bringe, ist sie etwas 7-9% langsamer. Da kann man sich doch gleich das Geld sparen und direkt zur preiswerteren 9070 non XT greifen?
Wenn ich die 9070 undervolte, würde sie performancemäßig wohl 1 zu 1 der 9070 XT entsprechen.

Erklären kann ich mir das nicht, weil ja XT ja auch mehr Shader hat.
Auf jeden Fall sinkt der Preis der 9070 non XT derzeit pro Woche um 10€. Aktuell sind wir bei 669€.

dildo4u
2025-03-26, 13:33:07
Die Karten nutzen genau den selben RAM du kannst nicht nur die Rechleistung vergleichen.
Die XT wird öfter in Bandbreiten Limits laufen.

Hakim
2025-03-26, 13:39:11
Wäre der Unterschied beim Preis wirklich nur die 60€ ware es nicht so relevant, der volle Chip wird immer etwas schneller sein bei gleichem Powertarget, mal mehr mal weniger. Aber wenn man wirklich nur maximal 220W fahren will, ja kann man die nonXT holen

Wiseman
2025-03-26, 13:47:46
Ähm, Du hast überall um die 215 Watt Verbrauch. Das ist der Wert der non-XT.
Bist Du sicher, daß es eine XT ist und nicht die normale non-XT?

Kleiner Scherzkeks. :biggrin:

Die Hellhound 9070XT hat ein Dual-BIOS. Versandt wird sie mit dem Standard-BIOS (Default 317W). Ich habe mit Hilfe eines kleinen Kippschalters das zweite BIOS (Default 305W) aktiviert. Außerdem steht bei mir im Tuning Fenster Power Limit (%) immer auf - 30%.

Standard-BIOS: 317W - 95W (30%) = 222W

Zweites BIOS: 305W - 92W (30%) = 212W

Deshalb laufen bei mir die Games in 4k mit maximal 212W.

Dimon
2025-03-26, 14:29:14
Bin wieder zurück zum alten treiber :biggrin:
hat jemand mal das MCT probiert?

Der_Korken
2025-03-26, 17:28:45
Mal eine hypothetische Überlegung:
Die 9070 non XT ist 10% langsamer als die 9700 XT und verbraucht 220 W.
Wenn ich also die 9700 XT auf 220 W bringe, ist sie etwas 7-9% langsamer. Da kann man sich doch gleich das Geld sparen und direkt zur preiswerteren 9070 non XT greifen?
Wenn ich die 9070 undervolte, würde sie performancemäßig wohl 1 zu 1 der 9070 XT entsprechen.

Erklären kann ich mir das nicht, weil ja XT ja auch mehr Shader hat.
Auf jeden Fall sinkt der Preis der 9070 non XT derzeit pro Woche um 10€. Aktuell sind wir bei 669€.

Bei CB ist die XT 14% schneller in Raster und 16% in RT. Allerdings liegt der Taktunterschied auch bei etwa 300Mhz unter Last, was schon 11-12% sind. Die Shader scheinen also tatsächlich relativ auszumachen (3-5%). Wenn es der Speicher ist, der dort limitiert, dann müsste VRAM-OC auf der XT ja richtig abgehen. Allerdings ist der Vorsprung sehr konsistent zwischen den einzelnen Spielen. Oder es sind die ROPs oder das Frontend.

gedi
2025-03-26, 17:51:18
https://forum.alphacool.com/threads/what-do-you-want.61/page-10#post-30503


Sehr gute Nachrichten, danke!

Badesalz
2025-03-27, 07:50:20
Was ich immer sage: Shic was auf die Kronen oder auf die Duelle um solche. Wenn sie EINMAL was schon halbwegs vernünftig machen geht da schon einiges. Daher auch meine miese Meinung immer, daß es nie an Nv lag, sondern an denen selbst...

https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/65811-radeon-rx-9070-serie-zehn-mal-mehr-grafikkarten-als-normalerweise-verkauft.html

robbitop
2025-03-27, 08:33:04
https://forum.alphacool.com/threads/what-do-you-want.61/page-10#post-30503
Wahrscheinlich wieder total überteuert. Deren Blackwell Blöcke kosten 200 EUR. Selbst für die 5070 welches eine 630 EUR GPU ist.
Ein gefrästes Stück Kupfer muss keine 200 EUR kosten.

Spring
2025-03-27, 10:02:36
Meine XFX Mercury Radeon RX 9070XT OC Gaming Edition (3x8Pin) ist heute angekommen und wird abends ausgiebig getestet. Mal gucken was so geht gegen die 6950XT. Und mit PCIe 3 (Mobo gekauft Januar 2018) ;)

Ich bin begeistert^^

Viel getestet, Port Royal gehen über 20k Punkte, Steel Nomad knapp 7800 Punkte. In PUBG mit knapp über 3,2 GHz rumgelaufen ohne Crash. Alles mit 374W (bis auf PUBG bei ~220W) ;)
Performance fast verdoppelt gegenüber der 6950XT :eek:

UV bzw Powerlimit runter kommt die Tage, da halte ich mich an das was Wiseman getestet hat.

EDIT: Hätte gerne MPT für RDNA4 oder AMD erbarmt sich und gibt +15/20% PT frei :ugly: Die 374W reichen nicht :D

robbitop
2025-03-27, 10:11:21
Leider gibt es keine/kaum Benchmarks wo die 6950XT gegen die 9070XT - also rechne ich 9070 XT vs 6800 XT und dann 6950 XT vs 6800XT. Also im Spieleindex (Raster) auf der PCGH ist die XT gerade mal 61% schneller als die 6800 XT. Die 6950XT ist laut einem anderen PCGH Index 14% schneller als die 6800XT. Also sollten dann in Raster Spielen eher so ~40% Mehrleistung zu sehen sein im Schnitt. Natürlich gibt es immer auch mal Ausreißer.

Im RT Index sind es 78% ggü der 6800XT. Dort ist die 6950XT 17% schneller als die 680XT. Dann bleiben ~52% übrig.
https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/Tests/Preis-Test-kaufen-Release-Specs-Benchmark-1467270/4/
https://www.pcgameshardware.de/Radeon-RX-7800-XT-Grafikkarte-279841/Tests/Release-Preis-kaufen-Specs-Benchmarks-RTX-4070-1428245/3/

Also Faktor 2 erscheint mir übertrieben bzw sind ggf einzelne Ausreißer.

Spring
2025-03-27, 10:28:59
Leider gibt es keine/kaum Benchmarks wo die 6950XT gegen die 9070XT - also rechne ich 9070 XT vs 6800 XT und dann 6950 XT vs 6800XT. Also im Spieleindex (Raster) auf der PCGH ist die XT gerade mal 61% schneller als die 6800 XT. Die 6950XT ist laut einem anderen PCGH Index 14% schneller als die 6800XT. Also sollten dann in Raster Spielen eher so ~40% Mehrleistung zu sehen sein im Schnitt. Natürlich gibt es immer auch mal Ausreißer.

Im RT Index sind es 78% ggü der 6800XT. Dort ist die 6950XT 17% schneller als die 680XT. Dann bleiben ~52% übrig.
https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/Tests/Preis-Test-kaufen-Release-Specs-Benchmark-1467270/4/
https://www.pcgameshardware.de/Radeon-RX-7800-XT-Grafikkarte-279841/Tests/Release-Preis-kaufen-Specs-Benchmarks-RTX-4070-1428245/3/

Also Faktor 2 erscheint mir übertrieben bzw sind ggf einzelne Ausreißer.

Das war auf Port Royal und Steel Nomad bezogen ;)

In Games deckt sich das mit den Reviews bzw bissl mehr wegen bis zu 374W.

Emil_i_Lönneberga
2025-03-27, 12:50:16
Wahrscheinlich wieder total überteuert. Deren Blackwell Blöcke kosten 200 EUR. Selbst für die 5070 welches eine 630 EUR GPU ist.
Ein gefrästes Stück Kupfer muss keine 200 EUR kosten.

Dann bleibt nur Bykski.

https://ezmodding.com/de/waterblocks/gpu/rtx4000

https://ezmodding.com/de/waterblocks/gpu/amd7000

Bei denen haben Fullcover für die aktuellen Grafikkarten aber keine Priorität:

https://www.hardwareluxx.de/community/threads/nvidia-blackwell-50xx-wasserk%C3%BChler.1362662/page-26#post-30771258

robbitop
2025-03-27, 13:01:06
Also eine Chance für alle die eine CNC Fräsmaschine haben ordentlich Umsatz zu machen :)
Ich vermisse die Zeiten wo man einfach einen general GPU Wasserkühler hatte und da einfach die Blende für 5 EUR umgerüstet hat (zB Aqua Computer Twinplex). Paar Kühlkörper auf die RAM Bausteine und VRMs und fertig.
Aber irgendwann kamen einfach keine Blenden mehr raus, weil das Konzept wahrscheinlich denjenigen im Weg stand, die schön abzocken wollen bei jedem GPU Wechsel.

Matrix316
2025-03-27, 13:40:51
Ich bin begeistert^^

Viel getestet, Port Royal gehen über 20k Punkte, Steel Nomad knapp 7800 Punkte. In PUBG mit knapp über 3,2 GHz rumgelaufen ohne Crash. Alles mit 374W (bis auf PUBG bei ~220W) ;)
Performance fast verdoppelt gegenüber der 6950XT :eek:

UV bzw Powerlimit runter kommt die Tage, da halte ich mich an das was Wiseman getestet hat.

EDIT: Hätte gerne MPT für RDNA4 oder AMD erbarmt sich und gibt +15/20% PT frei :ugly: Die 374W reichen nicht :D
Wie laut ist die Karte jetzt? Da hört man ja immer Schlimmes. ;)

Emil_i_Lönneberga
2025-03-27, 17:35:05
Ich vermisse die Zeiten wo man einfach einen general GPU Wasserkühler hatte und da einfach die Blende für 5 EUR umgerüstet hat (zB Aqua Computer Twinplex). Paar Kühlkörper auf die RAM Bausteine und VRMs und fertig.

Geht weiterhin:

https://www.amazon.de/Richer-R-Wasserk%C3%BChlblock-Grafikkarte-Wasserk%C3%BChler-Computer-GPU-default/dp/B07DRD6VGM

https://www.amazon.de/s?k=passive+k%C3%BChlk%C3%B6rper&crid=1SAGLEVGOXOX9&sprefix=passive+k%2Caps%2C144&ref=nb_sb_ss_ts-doa-p_2_9

robbitop
2025-03-27, 18:01:22
Das ist ja ARSCH GEIL. Sorry für den Ausdruck. X-D
Weisst du ob die Bracket universell auch auf moderne GPUs passt? Die Lochbilder verändern sich ja immer. Passt sowas auf Blackwell und RDNA4 Karten? ^^ Leider ist der Beschreibungstext ziemlich mau.

gedi
2025-03-27, 18:06:24
Ich bin begeistert^^

Viel getestet, Port Royal gehen über 20k Punkte, Steel Nomad knapp 7800 Punkte. In PUBG mit knapp über 3,2 GHz rumgelaufen ohne Crash. Alles mit 374W (bis auf PUBG bei ~220W) ;)
Performance fast verdoppelt gegenüber der 6950XT :eek:

UV bzw Powerlimit runter kommt die Tage, da halte ich mich an das was Wiseman getestet hat.

EDIT: Hätte gerne MPT für RDNA4 oder AMD erbarmt sich und gibt +15/20% PT frei :ugly: Die 374W reichen nicht :D

Wenn du UV betreibst, braucht es keinen mehr an Wätter. Ein Tipp von mir: Stelle das UV nicht Global, sondern per Spiel ein. Dann hast du das optimale UV, Lüfterkurve usw. pro Spiel immer exakt eingestellt und hast zu jeder Zeit die optimale Leistung verfügbar.

robbitop
2025-03-27, 18:09:33
Das ist ja ARSCH GEIL. Sorry für den Ausdruck. X-D
Weisst du ob die Bracket universell auch auf moderne GPUs passt? Die Lochbilder verändern sich ja immer. Passt sowas auf Blackwell und RDNA4 Karten? ^^ Leider ist der Beschreibungstext ziemlich mau.
Also nicht immer sind die Schraublöcher im 45° Winkel zueinander. ZB hier eine 5070 ti:

gedi
2025-03-27, 19:27:05
Also nicht immer sind die Schraublöcher im 45° Winkel zueinander. ZB hier eine 5070 ti:

Der Vram und Wandler sollen dann passiv gekühlt werden? Sorry, kann nicht dein ernst sein... Das ist Technik aus 1999-2004 ...

gedi
2025-03-27, 19:57:22
Wie laut ist die Karte jetzt? Da hört man ja immer Schlimmes. ;)

Sind ~37db/a, was hörbar ist, aber wenigstens kein Lüfterschleifen, o.ä.. Zudem 0 Spulenfiepen, ähnlich meiner verkauften 4090 Ultra. Die Performance wird sich durch einen Wasserblock nicht ändern lassen, allerdings wird dann wenigstens dieses Schiff aus meinem Rechner vernannt!

Pinhead_Xp
2025-03-27, 21:18:30
Für die paar Betroffenen denen das Audioproblem via HDMI auch bekannt war, hab ich zumindestens eine Lösung für die Störgeräusche gefunden.

Man muss den ULPS (Ultra Low Power State) deaktivieren. Dadurch bekommt meine 9070XT im Idle wenn alle Fenster abgelegt sind und nur die Musik im Spotify läuft ca. 11mv (laut Treiber) mehr (24 zu 35) und die Störgeräusche sind weg.

https://www.ping1xx.com/2024/11/disable-amd-ulps.html?m=1

Unabhängig davon ist der Mehrkanalton wieder futsch und lässt sich auch mit dem vorangegangenen Workaround nicht wieder herstellen 😞

Edit: Das Mehrkanalton "Problem" ist auch gelöst. Hab die Einstellungen in Windows 11 endlich gefunden. Zumindest das geht auf meine Kappe. Unter Windows 10 und NV Karten wurde das wahrscheinlich immer automatisch auf Mehrkanalton konfiguriert und bedurfte keines manuellen Eingriffes bzw. hinterfragens.

So, weiter gehts zur nächsten Baustelle 😅 Flimmern auf meinem Oled wenn Framegenration aktiviert ist. Wird wohl eher ein OLED Problem sein was man so liest

Spring
2025-03-27, 21:21:56
Wie laut ist die Karte jetzt? Da hört man ja immer Schlimmes. ;)

Alles gut. Musst halt die Lüfterkurve anfassen, Stock geht sie bis zu 100% hoch^^

Wenn du UV betreibst, braucht es keinen mehr an Wätter. Ein Tipp von mir: Stelle das UV nicht Global, sondern per Spiel ein. Dann hast du das optimale UV, Lüfterkurve usw. pro Spiel immer exakt eingestellt und hast zu jeder Zeit die optimale Leistung verfügbar.

Guter Tipp!

Spring
2025-03-28, 01:07:12
Stalker 2 (keine Mods) @ 1440p FSR 4 Quality + FG, alles auf episch

https://cdn.discordapp.com/attachments/298511485494231050/1354961813816476011/Zwischenablage3.png?ex=67e73206&is=67e5e086&hm=d380baaeb9d8f18d7f7feadc4f7b9269a3e9a9b4d4d4bb54c52080f818ac9888&

https://cdn.discordapp.com/attachments/298511485494231050/1354962458489655387/Zwischenablage16.png?ex=67e732a0&is=67e5e120&hm=e2dd329d5198a9d69a6d1d28d370789ffc720bb0b0c35878b906c4657c8115be&

GerryB
2025-03-28, 01:39:55
Vram Temperatur ?

Spring
2025-03-28, 11:16:55
Folgt abends, dachte ich hätte alles angeklickt ;)

Hakim
2025-03-28, 12:27:58
Atomfall läuft laut CB sehr bescheiden auf RDNA4, selbst im Vergleich zu RDNA3

Raff
2025-03-28, 12:51:38
Atomfall läuft laut CB sehr bescheiden auf RDNA4, selbst im Vergleich zu RDNA3

RDNA 4 kann sich gegenüber RDNA 3 nur gut in Szene setzen, wenn’s bei RDNA 3 klemmt. Klemmt es nicht, zählt die Anzahl der Compute Units × Takt. Aber gut, dass du es erwähnst, dann kann ich meine drei Beispiele auch hier bringen. Drei frische Spiele, getestet mit frischen Treibern. In einem brilliert RDNA 4 (bzw. Radeon generell), in zweien läuft Nvidia davon.

Atomfall (https://www.pcgameshardware.de/Atomfall-Spiel-74887/Specials/Release-Test-Review-Steam-1468720/2/): Generell hohe Bildraten, aber nur Geforces auffallend schnell
Kingdom Come 2 (https://www.pcgameshardware.de/Kingdom-Come-Deliverance-2-Spiel-74644/Specials/Test-Update-Release-CPU-GPU-Benchmarks-1468916/2/): Anspruchsvoller und alles abseits von Geforce abgeschlagen
AC Shadows (https://www.pcgameshardware.de/Assassins-Creed-Shadows-Spiel-74683/Specials/Test-Release-Review-Grafikkarten-Prozessoren-1468158/3/): Die Anvil-Engine ist selbst mit Raytracing sehr Radeon-freundlich

Das sind alles Benchmarks von dieser Woche. Daher ist es so wichtig, einen diversen, breit aufgestellten Benchmark-Parcours zu haben.

MfG
Raff

DrFreaK666
2025-03-28, 12:53:30
God of War 2 wird von euch auch rechtzeitig getestet?
Habe gerade viel Spaß mit dem ersten

w0mbat
2025-03-28, 13:25:57
Ich hab gerade mal wieder RE:4 gspielt und gefühlt sehr wenig FPS gehabt. Hab das noch mit meiner RX 6800 gespielt und da lief es super flocking. Die 9070 XT hat in UWQHD nur 60-80 FPS geliefert. Da stimmt doch was nicht.

GerryB
2025-03-28, 15:01:58
RDNA 4 kann sich gegenüber RDNA 3 nur gut in Szene setzen, wenn’s bei RDNA 3 klemmt. ...
Noch schlimmer wirds, wenn der Dev nur ne RDNA2 besitzt/nutzt fürs Optimieren des Codes!
(und ausbalancieren der einzelnen Features für maxed)

anscheinend ne 6800xt, ... 8% vor der 7800xt, von N48 ganz zu schweigen

gedi
2025-03-28, 20:02:32
Ich hab gerade mal wieder RE:4 gspielt und gefühlt sehr wenig FPS gehabt. Hab das noch mit meiner RX 6800 gespielt und da lief es super flocking. Die 9070 XT hat in UWQHD nur 60-80 FPS geliefert. Da stimmt doch was nicht.

Hm, RE:7 funktioniert hier einwandfrei und schneller als auf meiner 7900xtx Nitro mit 463w. Was mir allerdings in dem Spiel auffiel, dass lediglich 270 Watt gebraucht werden.

Haarmann
2025-03-29, 07:05:09
Die Differenz zwischen den OC Karten und den Waldwiesenkarten ist bei der 9070 dann doch bemerkbar.
Opfer diesmal - eine ASUS Prime 9070 für immernoch happige 569 CHF (die GA war 639).

Mit wundervollen Timespy Settings, die woanders gnadenlos abstürzen, kriegt man aus dem Teil fast den gleichen Score wie aus der GA. Schon beim Nomaden jedoch bricht die Karte komplett zusammen - statt 7200 nur noch knapp 6600.
Mit den Nomadensettings liegt man auch nur ca bei 29k Timespy - aber alles läuft bis dato stabil.

Was ich sehr, sehr gerne hätte, denn mein Notebook (RTX 3070) wird auch nicht jünger - eine 16 GB 9070 Mobile. Was nämlich NV zZ anbietet - darf NV behalten. Wie schon bei den 4000ern - unbrauchbar.

GerryB
2025-03-29, 08:48:37
Settings ?
GA= ?

btw.
Kann es sein, das ne Swift auch schon 245W hat?
(wird mit 2700MHz angegeben)

Spring
2025-03-29, 09:00:13
Vram Temperatur ?


Jetzt aber:

https://s1.directupload.eu/images/250329/fx56j2mr.png

Bin auch eine Weile vorher rumgelaufen.

EDIT: 1440p alles episch FSR 4 Qualität + FG
Offsets in dem Run: +250 MHz -55 mV / PT +10% / VRAM: 2666 MHz (Default: 2518 MHz)

VRAM Temp ist 2x kurz auf 78°C für wenige Sekunden gestiegen, ging aber wieder auf 75-76°C runter
Graka Lüfter in dem Run nie über 1200 rpm.

GerryB
2025-03-29, 10:42:44
Danke und ein schönes WE!

Spring
2025-03-29, 11:06:06
Danke und ein schönes WE!

Gerne und ebenfalls schönes WE :)

Helldivers 2, 5800X3D + 9070XT XFX Mercury Gaming OC, Graka-Settings wie oben bei Stalker 2

maximale Settings ingame, 1440p nativ, einmal Lobby und einmal in Action

https://s1.directupload.eu/images/250329/93kk9vxu.png

https://s1.directupload.eu/images/250329/gjkgg6cb.png

Graka-Lüfter unter 1400 rpm geblieben

Haarmann
2025-03-29, 13:52:58
Settings ?
GA= ?

btw.
Kann es sein, das ne Swift auch schon 245W hat?
(wird mit 2700MHz angegeben)

GA steht für GigaByte als Label - Hersteller ist ja oft irgendwie übertreiben Heute...

War ne normale Windforce - mit deren AMD Karten hatte ich bisher durchaus gute Erfahrungen gemacht und hier bieten die 3 Jahre Garantie - gerne genommen.

Tarkin
2025-03-29, 19:52:03
Settings ?
GA= ?

btw.
Kann es sein, das ne Swift auch schon 245W hat?
(wird mit 2700MHz angegeben)

Also meine XFX 9070 OC Swift hat 245W (hat sogar einen Bios Schalter für 225w und 245W)

;)

korrektur... der schalter ändert die TBP nicht lol... ist immer 245W (mit +10PT sinds dann knapp 270W)

GerryB
2025-03-29, 20:11:50
Thanks, nice!
Da gibts wohl einige Modelle, wo Bios 1+2 identisch sind.
bleibt Raum zum flashen, falls man mal weniger W erzwingen will

w0mbat
2025-03-29, 21:19:28
Hm, RE:7 funktioniert hier einwandfrei und schneller als auf meiner 7900xtx Nitro mit 463w. Was mir allerdings in dem Spiel auffiel, dass lediglich 270 Watt gebraucht werden.
Ich hab es mit den selben Settings auf meiner RX 6800 gespielt. UWQHD mit maximalen Einstellungen, ohne RT. War überhaupt kein Problem.

Jetzt habe ich meist nur 60-80 FPS. Sehr seltsam. Laut TPU sollte ich in 4K mehr FPS haben: https://www.techpowerup.com/review/sapphire-radeon-rx-9070-xt-pulse/24.html

gedi
2025-03-29, 21:42:51
Ich hab es mit den selben Settings auf meiner RX 6800 gespielt. UWQHD mit maximalen Einstellungen, ohne RT. War überhaupt kein Problem.

Jetzt habe ich meist nur 60-80 FPS. Sehr seltsam. Laut TPU sollte ich in 4K mehr FPS haben: https://www.techpowerup.com/review/sapphire-radeon-rx-9070-xt-pulse/24.html

Ich muss das Spiel mal runterladen, um es reproduzieren zu können. Melde mich dann die Tage. Ich habe das Spiel zwar, habe es allerdings nie gespielt. Welche Settings soll ich fahren?

w0mbat
2025-03-29, 21:48:04
Ich habs jetzt deinstalliert, alle Ordner/Cache gelöscht, und lade es nochmal runter. Hab alle Settings @maximum, nur RT eben aus. Kein Upscaling oder so.

Aber es gibt ja reviews die zeigen, dass es deutlich besser laufen sollte. Also >80 FPS @4K und nicht 60-80 FPS @UWQHD.

Pinhead_Xp
2025-03-29, 22:48:27
Ich hau das einfach mal als Just for Info hier rein, da dies seit langem meine erste Amd Graka ist und ich viel rumprobiere und Erfahrungen mit der Hardware sammel:

Bei Silent Hill 2 tauchen immer wieder kleine Ruckler auf die wohl typisch für die UE5 sind.

Hab "Hardwarebeschleunigte GPU-Planung" in Windows deaktiviert und das Game läuft DEUTLICH smoother. Grafikkarte taktet auch deutlich konsistent höher. Wo vorher sich das Taktverhalten an ca. 85% Gesamtauslastung der GPU orientiert hat, sind wir jetzt bei ca. 70%.

Keine Ahnung ob das bei anderen Games auch so ist, bin aber hier erstmal happy 🙂

gedi
2025-03-29, 23:03:39
Ich hau das einfach mal als Just for Info hier rein, da dies seit langem meine erste Amd Graka ist und ich viel rumprobiere und Erfahrungen mit der Hardware sammel:

Bei Silent Hill 2 tauchen immer wieder kleine Ruckler auf die wohl typisch für die UE5 sind.

Hab "Hardwarebeschleunigte GPU-Planung" in Windows deaktiviert und das Game läuft DEUTLICH smoother. Grafikkarte taktet auch deutlich konsistent höher. Wo vorher sich das Taktverhalten an ca. 85% Gesamtauslastung der GPU orientiert hat, sind wir jetzt bei ca. 70%.

Keine Ahnung ob das bei anderen Games auch so ist, bin aber hier erstmal happy 🙂

Coole Info, danke!

w0mbat
2025-03-30, 00:30:45
Ich habs jetzt deinstalliert, alle Ordner/Cache gelöscht, und lade es nochmal runter. Hab alle Settings @maximum, nur RT eben aus. Kein Upscaling oder so.

Aber es gibt ja reviews die zeigen, dass es deutlich besser laufen sollte. Also >80 FPS @4K und nicht 60-80 FPS @UWQHD.
Auch neu runtergeladen weiterhin sehr geringe FPS. Hatte gerade Abschnitte wo es <60 FPS gedroppt ist. Keine Ahnung wieso.

Emil_i_Lönneberga
2025-03-30, 10:37:37
Endlich, PL ade. Ein bisschen Flüssigmetall und fertig ist der Lack.

https://www.hardwareluxx.de/community/threads/offizieller-amd-rx-9070-xt-overclocking-und-modding-thread.1364991/page-25#post-30777012

Also, läuft alles perfekt. TBP kein Problem mehr. Ich hänge voll in der Kühlung mit 108°C Hotspot. Läuft easy ohne EVC.
Beitrag automatisch zusammengeführt: Vor 36 Minuten

Mein Score ist trotzdem scheiße jedenfalls im DX12 Steel Nomad, liegt vielleicht am Qbios. Mal sehen. Oder am 25.3.2 Treiber.

Aber deutlich mehr GPU-Takt.

Emil_i_Lönneberga
2025-03-30, 12:24:32
Takt genagelt, 388W TGP

92369

Wex
2025-03-30, 16:11:22
Takt genagelt, 388W TGP

92369

Emil_i_Lönneberga
God member

Emil_i_Lönneberga
2025-03-30, 17:43:55
Zu früh gefreut:

https://www.hardwareluxx.de/community/threads/offizieller-amd-rx-9070-xt-overclocking-und-modding-thread.1364991/page-26#post-30777262

robbitop
2025-03-30, 20:35:10
Emil - du schreibst bei HwL was von einem GPU Heatkiller und Alu Heatsinks. Kannst du das ausführen wie das mit dem Heatkiller gemeint ist und wie der befestigt werden würde? :)

Emil_i_Lönneberga
2025-03-30, 21:19:48
Oese ist eine andere Person und er hat das nicht ernst gemeint.

https://www.hardwareluxx.de/community/threads/offizieller-amd-rx-9070-xt-overclocking-und-modding-thread.1364991/page-26#post-30777409

Soll ich meinen GPU-Heatkiller rauskramen und es mit Alu-Heatsinks auf den VRMs versuchen? :haha:

Ne, Plan ist, nochmal auf die Terrasse zu gehen nächste Woche.

An den er da vermutlich gedacht hat, ist sowieso nicht mehr erhältlich:

92370

GerryB
2025-03-30, 21:21:58
Kannst du das ausführen wie das mit dem Heatkiller gemeint ist und wie der befestigt werden würde? :)

Da ist sicherlich ein oller CPU-Block + kleine Kühlkörper auf dem Vram gemeint. wie bei jedem Modelllaunch,
wo es noch keine Fullcover gibt.

btw.
Terasse allein hilft nach m.E. nicht, ... für >400W brauchts auch LM.
PTM7950 ist bei der kleinen Fläche hinischtlich Hotspot nicht ideal.

robbitop
2025-03-30, 21:25:06
Schon klar aber wie befestigt man den? Wenn das Loch old der Halterung das nicht hergibt? Interessiert mich weil ich das gern auch machen würde weil die Fullcoverblocks mittlerweile total überteuert und auch nicht zu kriegen sind. Ist in letzter Zeit irgendwie alles wie nach dem Krieg. Mangel, Graumärkte… fehlt nur noch dass man mit Zigaretten bezahlen muss oder so…

GerryB
2025-03-30, 21:37:45
vllt. passt ja irgendwas zufällig oder man kann noch Löcher bohren in dem CPU-Block
müsste halt erstmal Jemand messen, wie die Löcher bei der GPU sind

Für schwieriger halte ich die Kühlung vom Vram, da müssten es schon Kupfer-Kühlkörper sein,
und 2x ordentliche 140er Lü. vorn + hinten (hinten=auf der Backplate)

gedi
2025-03-30, 22:10:14
Takt genagelt, 388W TGP

92369

Naja, die Punkte hauen mich nicht gerade vom Sockel. Wieviel UV liegt an und wie hoch taktet der Vram?

GerryB
2025-03-30, 23:09:24
Vram siehe Bild
HWinfo ist dabei

mit dem niedrigen Vramtakt isses natürlich schwierig hoch zu scoren
may be, mit EVC2 lässt sich der Vram noch verbessern mit ein paar mV mehr

kokett
2025-03-30, 23:19:59
Schon klar aber wie befestigt man den? Wenn das Loch old der Halterung das nicht hergibt? Interessiert mich weil ich das gern auch machen würde weil die Fullcoverblocks mittlerweile total überteuert und auch nicht zu kriegen sind. Ist in letzter Zeit irgendwie alles wie nach dem Krieg. Mangel, Graumärkte… fehlt nur noch dass man mit Zigaretten bezahlen muss oder so…

Mit dem vorher geposteten Block wird es nicht gehen, aber ich kühle in meinem unraid server eine GPU mit dem hier: https://www.amazon.de/Richer-R-Wasserk%C3%BChlung-CPU-K%C3%BChlk%C3%B6rper-Wasserblock-Fl%C3%BCssigkeitsk%C3%BChler-default/dp/B07F8XSRGG/ref=sr_1_19_sspa?sr=8-19-spons&sp_csd=d2lkZ2V0TmFtZT1zcF9idGY&psc=1


das ist ein CPU Block wo halt eine Halterung für beide Sockelsysteme dran ist und du kannst den so verdrehen, dass du 4 von den 8 Löchern deckungsgleich über die Bohrungen von dem Chip bekommst. Ist halt die Frage, ob man das bei einer 800 Euro Grafikkarte machen will, ich habe es bei einer älteren Geforce gemacht wo die Lochabstände auch nicht quadratisch waren bzw. sind. Befestigt wird das ganze mit den beiliegenden Schrauben, Muttern, Unterlegscheiben und (wichtig) Federn.

Du drehst da zwei bewegliche Winkelanschlüsse rein und fertig. Den RAM kühle ich gar nicht (bläst nur ein Lüfter drauf), die SpaWas habe ich mit WL-Pad und einem Alukühler und dem vorgenannten Lüfter. Bei mir war es so, dass ich in dem Server eh schon alte HDD Wasserkühler benutzt habe und einen CPU Block und für die Schlauchführung musste die Grafikkarte irgendwie mit in den Kreislauf. Außerdem kann ich so den PCIe Slot unter der Grafikkarte mit einem weiteren SATA Controller bestücken.

Ich habe aber maximal 200 Euro (wenn überhaupt) bei dem Experiment riskiert, bei einer neuen Karte zum vierfachen Preis wäre ich da zittriger. Und mit einem ästhetisch schönen PC kann man halt mit sowas nicht mehr angeben :-). Davon abgesehen halten mich die Preise für die Blöcke auch vom Aufrüsten ab. Ich habe eine 6950XT im Abverkauf für € 500,- geschnappt und der passende AC Block war damals ebenfalls im Abverkauf für € 70,-. Jetzt für das neue Package 800+200 ist mir auch zu viel.

GerryB
2025-03-30, 23:46:56
Meinst Du mein Bildchen oben?
Der Block hat auch 8 Löcher und ist nicht quadratisch.

kokett
2025-03-30, 23:48:51
Meinst Du mein Bildchen oben?
Der Block hat auch 8 Löcher und ist nicht quadratisch.

Ne, ich meinte Post #1042

Auf deinem Bild sehe ich einen Block mit 6 Löchern? Die zwei in der Mitte vom Block oben und unten sind für GPUs imo sinnlos, der wird also auch nicht gehen.

GerryB
2025-03-31, 00:10:03
Schau richtig hin.
die 2 mittigen sind extra, also 2+4+4LL

Kannst ja mal spassenshalber die Maße vergleichen.

kokett
2025-03-31, 00:13:27
Ah, ja tatsächlich. Müsste man dann probieren, welcher besser passt.

GerryB
2025-03-31, 00:14:48
Zur Not hätte man noch etwas Fleisch, wo man neu zusätzlich bohren kann.

kokett
2025-03-31, 00:23:54
Bei rechteckigem Lochbild müsste deiner eigentlich auf jeden Fall passen, evtl. muss man ein Loch ein bisserl Weiten. Sind die Platinenbilder von ein paar Karten irgendwo hochauflösend vorhanden? Wenn man die Maße vom Chip kennt, sieht man ja wie die Abstände sind. In dem Amazon Link den ich gepostet habe sind die Abstände von dem Block angegeben.

GerryB
2025-03-31, 00:39:14
https://www.techpowerup.com/334777/amd-radeon-rx-9070-xt-reference-pcb-design-revealed-via-leak-compared-to-similar-sapphire-pulse-board

kokett
2025-03-31, 00:56:06
Hab's kurz gemessen, die Löcher haben alle 330 pixel Abstand, scheint also eine quadratische Lochmaske zu sein. Ich versuche morgen mal rauszufinden, wieviel cm es sind. Der Block den ich gepostet habe kann von 7cm bis 8,5cm auf quadratische Lochmasken verbaut werden. Kann gut sein, dass der passt.

robbitop
2025-03-31, 07:18:45
Verdeckt der große CPU Kühler den Gerry vorschlägt nicht auch den RAM? Da scheint ja die Kühlplatte einfach größer gemacht worden zu sein um als bracket verwendet zu werden?

Optik ist IMO egal. Ich nutze nie Fenster - bin aber auch schon 40. Schwarzer PC und alle Seiten gedämmt damit es leise ist.

GerryB
2025-03-31, 08:00:59
könnte sein,
beim oberen Vram wirds allerdings vermutlich nicht ganz reichen (x)

Evtl. wirds noch mehr Lösungen geben, war Gestern nur ein Schnellschuss.
Weitere Vorschläge erbeten.

(x)z.Vgl. die Kühlplatte der Pulse

Bismarx
2025-03-31, 09:54:01
Alles sehr interessant, allerdings gebe ich denjenigen Recht, die ein Problem mit verdecktem (aber nicht gekühltem) VRAM sehen.

Es sei denn, der VRAM würde letztlich keine Kühlung benötigen...

GerryB
2025-03-31, 10:52:45
Wenn der Vram zu 90% verdeckt ist, sollte man natürlich Putty drunterschmieren.
Dann kühlt das Blech vom Waterblock den Vram mit.

Falls es keine passende Blechgröße bei anderen Waterblocks gibt, könnte man evtl. bei den 2 nicht abgedeckten Vrams
nachbessern.

kokett
2025-03-31, 13:57:24
Optik ist IMO egal. Ich nutze nie Fenster - bin aber auch schon 40. Schwarzer PC und alle Seiten gedämmt damit es leise ist.
dito, bei Beidem. Bzgl. dem VRAM: Wenn der nicht verdeckt ist, sollte auch ein Lüfter reichen, der draufbläst. Vram Chips haben immernoch Kunststoffgehäuse, wenn die Kühlung wirklich wichtig wäre, dann müsste man da imo ein Material verwenden, dass die Hitze besser ableitet. Müsste man halt vorsichtig testen, sollten die Karten mal wirklich zur UVP verkauft werden, kauf ich mir eine und probiere es.

dildo4u
2025-03-31, 14:08:44
Monster Hunter Benchmarks mit Gameready Treiber


https://www.computerbase.de/artikel/gaming/monster-hunter-wilds-benchmark-test.91864

robbitop
2025-03-31, 17:38:41
@GerryB @Emil @kokett

Habt ihr Erfahrung damit wenn man einen solchen GPU Kühler nur an 2 von 4 Schrauben befestigt? müsste das nicht auch gehen? Viele GPUs haben ja heute ungleiche Lochabstände so dass man einige dieser GPU Kühler ja (wie auch schon angesprochen) einfach drehen kann bis zumindest 2 Langlöcher passen.

gedi
2025-03-31, 18:46:34
Monster Hunter Benchmarks mit Gameready Treiber


https://www.computerbase.de/artikel/gaming/monster-hunter-wilds-benchmark-test.91864

Auf Augenhöhe mit einer 4080 und 5070ti. Sieht imo okay aus. Zudem ist FSR4 auf Augenhöhe mit DLSS4! Wer hätte dies vermutet?

Spring
2025-04-01, 01:18:31
HZD Remastered @ 1440p FSR 4 Quality, kein FG, ingame alles auf Maximum

https://s1.directupload.eu/images/250401/g2inkas5.png

https://s1.directupload.eu/images/250401/dlpi3e2a.png

https://s1.directupload.eu/images/250401/9cikog6l.png

https://s1.directupload.eu/images/250401/og6kyd72.png

https://s1.directupload.eu/images/250401/b6vx8tbg.png

kokett
2025-04-01, 01:46:00
@GerryB @Emil @kokett

Habt ihr Erfahrung damit wenn man einen solchen GPU Kühler nur an 2 von 4 Schrauben befestigt? müsste das nicht auch gehen? Viele GPUs haben ja heute ungleiche Lochabstände so dass man einige dieser GPU Kühler ja (wie auch schon angesprochen) einfach drehen kann bis zumindest 2 Langlöcher passen.

Ich hatte zu 9700pro Zeiten von Innovatek so einen GPU Kühler der ab Werk nur zwei Befestigungsschrauben hatte (die waren auch noch aus Kunststoff und ohne Federn). Damals hat das einwandfrei funktioniert, ich wüsste nicht, warum das heutzutage nicht mehr gehen sollte. Ich glaube der Bauer hatte mal einen GPU only Kühler nur mit zwei Schrauben und einer Schraubzwinge auf irgendeiner 30xxer nvidia drauf, das hat einwandfrei geklappt fürs benchen.

GerryB
2025-04-01, 07:13:49
Was mir ein bisschen Sorgen machen würde wäre die schiere Wattzahl für den kleinen Popel,
für ne nonXT@245...270W mags gerade noch schleichen, aber ne XT@340...378W !?

Bei der nonXT lohnt sich halt nicht ein großer teuerer Waterblock, da wärs ne schöne Spielerei,
wenn man eeh schon nen Loop hat.

Bei der kleinen GB könnte evtl. der Vram mit abgedeckt werden.
Da machen dann 4 Schrauben auch Sinn. (Löcher anpassen)

falls die PCB´s leicht unterschiedlich sind, brauchts noch Recherche

Der_Korken
2025-04-01, 17:49:13
Ich hatte mir spontan eine Hellhound XT in weiß gekauft, nachdem ich dieses Modell bisher wirklich mal so gar nicht hab irgendwie auftauchen sehen. Einige rollen wegen der 799€ bestimmt gerade wieder die Augen, aber bei RDNA3 war das weiße Modell immer deutlich schlechter verfügbar als das schwarze und i.d.R. 30-40€ teurer. Außerdem warte ich mittlerweile seit über 4 Jahren auf bessere Preise bzw. Produkte. Wenn es in zwei Wochen nen Preissturz gibt, dann ist es halt so.

Da ich mittlerweile nur noch alte Schinken aufm Rechner habe und andere hier eh schon fleißig Screenshots und Erfahrungen aus den neuesten AAA-Games posten, berichte ich mal über die B-Noten.

Kühlung:

Alles auf stock läuft die Karte im GPU-Limit mit 304W (Silent BIOS), wo sie abhängig vom Workload so bei 82-84°C Hotspot und 92°C VRAM rauskommt bei knapp 1000RPM. Das ist bei mir leiser als die Gehäuse-Lüfter, die die warme Luft rausschaufeln müssen, ohne dass sich die Wassertemp in der AiO zu sehr aufheizt. 1000RPM empfinde ich bei der Hellhound noch als angenehm. Bis 1200RPM ist es noch akzeptabel, d.h. bei 300W kann ich die Lüfterkurve noch etwas schärfen und bin dann bei knapp 80°C Hotspot und glatten 90°C VRAM. Ungefähr. Die kleinste Drehzahl ist, wie Lurtz bereits schrieb, 850RPM bzw. 30% PWM - was ich im Idle leider raushören kann. Ich bräuchte wohl so 700RPM, damit ich von der GPU absolut nichts höre. Ich finde es unverständlich, warum die Minimaldrehzahlen so "hoch" gewählt werden. Bei meiner MSI Gaming RX5700 waren es auch 900RPM, die ich mittels MPT aber auf 650RPM senken konnte.

Es mag bessere XT-Kühler geben, aber als jemand, der nicht auf 300W+ gehen will, wäre ich mit der Leistung des Kühlers zufrieden. Die Luft kommt gut nach oben weg, sodass auch mit einem vergleichsweise "schmächtigen" Radi 300W gehen. Die alte MSI hatte verbrauchs- und lautstärkenormiert trotz massiverem Radi eine deutlich schlechtere Kühlleistung.

Spulenzirpen

Im Gegensatz zu den drei 5700er Karten (zweimal Nitro XT, einmal MSI Gaming nonXT) gibt diese Karte keinen Mucks von sich, wenn man Fenster verschiebt oder im Browser scrollt. Ja richtig gelesen, ich habe damals zwei Nitros zurückgeschickt, u.a. weil mich diese Nebengeräusche wahnsinnig gemacht haben. Die MSI hatte es zwar auch, aber sie war günstig geschossen und die Geräusche sind mit der Zeit deutlich besser geworden.

Jetzt kommt das große Aber: Die Hellhound zirpt unter Last und zwar deutlich hörbar aus den restlichen Lüftergeräuschen raus :(. Ich werde hier noch ein wenig testen, aber bisher ist mir noch kein klares Muster aufgefallen. Wenn ich Witcher 3 mit RT-Patch in 4K laufen lasse, rasselt sie lauter je höher das PT, wobei das Rasseln selbst bei -30% PT noch wahrnehmbar ist, wenn man hinhört. Wenn ich auf 1440p runtergehe, liegen wegen CPU-Limit nur noch 200W an der GPU an, aber diese taktet trotzdem so hoch wie bei 300W in 4K. Jetzt kommts: Gefühlt ist das Rasseln auch fast so laut wie bei 300W. Man könnte also sagen, die Lautstärke hängt nicht vom Verbrauch, sondern vom Takt ab :freak:. Ich will aber noch keine voreiligen Schlüsse ziehen.

Ich muss an der Stelle noch sagen, dass alle meine drei N10-Karten unter Last gezirpt haben und zwar umso lauter, je höher der Verbrauch. Bei N10-Verbrauch ist die Hellhound definitiv nicht lauter als die N10-Karten.

Damit steht es hier im Thread für die Hellhound jetzt 2:1 rasseln (Lurtz und ich) vs kein rasseln (Wiseman). Vielleicht täuscht mich meine Erinnerung, aber ich glaube Wiseman hatte damals auch die gleiche 5700XT Nitro gehabt wie ich und im Gegensatz zu mir auch damals kein Rasseln gehabt. Könnte natürlich am Netzteil liegen. Ich habe neulich erst das Netzteil gewechselt von einem Bequiet Straight Power E10 500W auf ein Corsair SF750. Auf die MSI hatte der Wechsel keinen Einfluss bezüglich Rasseln. Das Bequiet habe ich hier noch rumliegen, aber irgendwie gerade keine Lust meine ganze Verkabelung wieder auseinanderzurupfen. Vor allem hat die 9070 übelste transiente Lasten über 400W@stock, d.h. das alte bequiet würde wohl sowieso nur mit gesenkten Powertarget laufen können.

In Furmark ist übrigens kein Rasseln zu hören, aber hier wird die Karte selbst mit 300W unter 2Ghz (!) gedrückt, was wiederum für meine Theorie spricht, dass hoher Takt = viel Rasseln bedeutet. Kleiner Wink hier an dargo, weil wir damals durch einen geleakten GPU-Z-Screenshot, wo man 330W Board Power und 0,7xV Spannung gesehen hat, so krasse RDNA3-Flashbacks hatten. Die Werte sind definitiv authentisch. Ich würde sagen, dass in N48 immer noch viel SäufeR-DNA drinsteckt, alleine schon weil sie permanent im Powertarget hängt. Man sieht mit 300W seltenst überhaupt mal 1000mV Spannung, eher so 950mV. Was man der GPU gibt, das nimmt sie sich auch.

2D-Verbrauch

In 4K schafft man im tiefsten Idle so zwischen 10W (60Hz) und 13W (165Hz). Mit 240Hz geht der VRAM-Takt nicht unter 900Mhz (statt <100Mhz), sodass der Verbrauch auch nicht unter 20-23W geht. Allerdings halte ich das für nebensächlich, da ohnehin das kleinste Epsilon an Last den Verbrauch immer wieder auf 30W oder 40W hochschießen lässt und die Karte dann so 10 Sekunden braucht, bis der VRAM wieder in einen tieferen Powerstate geht. Ich habe es auf 240Hz gelassen, weil die Tiefschlafphasen so selten sind, dass ich mit 165Hz imho nichts nennenswertes einspare, sofern ich nicht alle Hintergrundprogramme ausmache und auf den leeren Desktop starre. Das scheint irgendwie so eine AMD-Marotte zu sein, denn mein Zen 3 verhält sich genau so: Extrem unruhig und mit Schlafstörungen.

Streams gucken und ein wenig nebenbei surfen bedeutet so 40-45W Dauerverbrauch, nur so als Richtwert. Gut dass ich mir die 7800XT nicht gekauft habe, denn da wären 70W+ wohl der Dauerzustand geworden. Insgesamt würde ich sagen die 9070XT ist vergleichbar mit der 5700 was 2D-Verbräuche angeht. Ich würde mir aber wünschen die Minimaldrehzahl oder besser noch die Temperaturschwellen für ZeroFan anpassen zu können. Die Lüfter gehen bei 59°C Hotspot an und bei 45°C wieder aus. Hier bin ich durch den dicken Radi meiner MSI etwas verwöhnt, denn der hat passiv imho deutlich besser gekühlt als die Hellhound. 59°C erreicht man beim Stream gucken immer wieder mal und mit 850RPM drücken die Lüfter das extrem schnell wieder auf 45°C runter, sodass die alle 5 Minuten neu anlaufen. Unter Teillast habe ich schon erlebt, dass bei 100W Dauerverbrauch die Lüfter ausgegangen sind. Für Spiele mit wenig Last würde ich daher empfehlen ein eigenes Profil anzulegen, wo man ZeroFan abschaltet.

Die GPU-Temps liegen im 2D meist so zwischen 45 und 55°C, je nachdem was man so macht. Der VRAM hängt aber nach einer Aufwärmphase selbst im 2D-Betrieb permanent bei 70°C. Keine Ahnung was AMD da gemacht hat, denn der GDDR6 auf meiner 5700 war eigentlich nie heißer als die GPU. Imho ist es auch der VRAM, der den 2D-Verbrauch dominiert, denn ohne ZeroFan fällt der Hotspot auf 33°C, während der VRAM immer noch über 50°C liegt. Die GPU selber verbraucht im Idle also quasi nichts.

PS:

Optisch dürfte die weiße Hellhound so ziemlich die beste Option für White-Builds sein. Hier sind nicht nur Shroud und Backplate weiß, sondern auch PCB, Slotblende und Radi (!) sind weiß lackiert.

Für alle die es interessiert, hier die (durch Rumprobieren) gefundene AMD-seitig hinterlegte Spannungskurve - welche tatsächlich eine Gerade mit einer Baseline ist. Ob es hier Abweichungen bei anderen Modellen (meine ist eine 9070 XT Reaper) gibt, kann ich nicht sagen...können andere Foristen ggf. nachtragen:

Spannung (mV) = 0.275(mV/MHz)*Frequenz(MHz) + 170 mV

Cutoff-Value ist bei ca. 1900 MHz und 700 mV. Unter 700 mV geht die Karte auch mit Undervolting und niedrigeren Frequenzen bei mir nicht. Der UV wird ziemlich 1:1 (gem. der angezeigten Daten) umgesetzt, allerdings nicht in der Nähe der 700 mV - denn diese Untergrenze ist fest.

Absolut underrated post! Ich habe es nicht systematisch gecheckt, aber deine Formel deckt sich grob mit meinen bisherigen Beobachtungen. Für UV wäre das eine gute Nachricht, weil eine so geformte Kurve am oberen Ende sehr viel weniger Spielraum lässt als in der Mitte. Mit -500Mhz Offset kann ich meinen Takt auf ~2880Mhz deckeln, d.h. die ganzen wackeligen 3Ghz+ Szenarios könnte ich mir beim UV alle sparen. Das hat bei meinem 5900X auch schon gut funktioniert, wo ich den PBO-Offset auf -250Mhz stehen habe, statt auf +200Mhz wie es gefühlt alle anderen machen. Da konnte ich nochmal gut mit der Spannung runter gegenüber +-0Mhz.

dargo
2025-04-01, 18:07:00
Danke @Korken für diesen ausführlichen Bericht mal abseits der üblichen 08/15 Sachen! :up:

Ich glaube somit fällt die Hellhound XT für mich flach. Die zu hohe Lüfter-Minimaldrehzahl und das Zirpen/Rasseln sind schon zwei unschöne Abturner. ;( Somit bleibt nur noch die Sapphire Pulse oder Pure übrig für mich.


Absolut underrated post! Ich habe es nicht systematisch gecheckt, aber deine Formel deckt sich grob mit meinen bisherigen Beobachtungen. Für UV wäre das eine gute Nachricht, weil eine so geformte Kurve am oberen Ende sehr viel weniger Spielraum lässt als in der Mitte. Mit -500Mhz Offset kann ich meinen Takt auf ~2880Mhz deckeln, d.h. die ganzen wackeligen 3Ghz+ Szenarios könnte ich mir beim UV alle sparen. Das hat bei meinem 5900X auch schon gut funktioniert, wo ich den PBO-Offset auf -250Mhz stehen habe, statt auf +200Mhz wie es gefühlt alle anderen machen. Da konnte ich nochmal gut mit der Spannung runter gegenüber +-0Mhz.
Ich finde diese max. -500Mhz wieder so eine bescheuerte Entscheidung für den Treiber. :facepalm: Um N48 richtig effizient zu undervolten bedarf es einiges weniger als max. ~2,9Ghz.

Der_Korken
2025-04-01, 18:27:05
Ich persönlich hoffe, dass ich bei einem Plattform-Upgrade auf den hybriden GPU-Modus gehen kann. Dann wäre mir die minimale Lüfterdrehzahl völlig wumpe, weil die Lüfter außerhalb von Spielen dann nie laufen würden. Leider habe ich bisher niemanden gefunden, der eine AM5-CPU und einen 4K240-Monitor hat und gewillt ist zu testen, ob die iGPU damit 240Hz packt. In den Board-Specs stehen immer 4K120 drin, aber über DP1.4 schafft selbst eine uralte 5700 aus 2019 die 240Hz - von meinem mobilen Raptor Lake im Arbeitsnotebook ganz zu schweigen.

Das Zirpen ist der casus knacktus. Eigentlich will ich die Karte nicht zurückschicken, weil jede andere Karte ein optisches Downgrade wäre und jede andere Karte genauso zirpen kann :usad:. Eigentlich stünde ohnehin nur die Pure zur Debatte, da die Karte auch unter Linux zum Einsatz kommen soll und da kann ich mir die kaputten XFX-Lüfterkurven nicht wegtunen. Ich versuche mir das Zirpen die nächsten Tage noch irgendwie schönzusaufen :D

Edit:

Ich finde diese max. -500Mhz wieder so eine bescheuerte Entscheidung für den Treiber. :facepalm: Um N48 richtig effizient zu undervolten bedarf es einiges weniger als max. ~2,9Ghz.

Ja, so 100-200Mhz weniger wären ganz nett.

Der absolute Traum wäre ein BIOS-Mod:
- max. Takt auf 3000Mhz (damit die -500Mhz genug Spielraum geben)
- min. Drehzahl auf 600RPM
- Ausschaltschwelle bei 40°C

gedi
2025-04-01, 18:29:48
Ich persönlich hoffe, dass ich bei einem Plattform-Upgrade auf den hybriden GPU-Modus gehen kann. Dann wäre mir die minimale Lüfterdrehzahl völlig wumpe, weil die Lüfter außerhalb von Spielen dann nie laufen würden. Leider habe ich bisher niemanden gefunden, der eine AM5-CPU und einen 4K240-Monitor und gewillt ist zu testen, ob die iGPU damit 240Hz packt. In den Board-Specs stehen immer 4K120 drin, aber über DP1.4 schafft selbst eine uralte 5700 aus 2019 die 240Hz - von meinem mobilen Raptor Lake im Arbeitsnotebook ganz zu schweigen.

Das Zirpen ist das casus knacktus. Eigentlich will ich die Karte nicht zurückschicken, weil jede andere Karte ein optisches Downgrade wäre und jede andere Karte genauso zirpen kann :usad:. Eigentlich stünde ohnehin nur die Pure zur Debatte, da die Karte auch unter Linux zum Einsatz kommen soll und da kann ich mir die kaputten XFX-Lüfterkurven nicht wegtunen. Ich versuche mir das Zirpen die nächsten Tage noch irgendwie schönzusaufen :D

Erfahrungsgemäß lässt dies mit der Zeit deutlich nach.

kokett
2025-04-01, 19:34:19
Das Zirpen ist der casus knacktus.

Benutzt du zufällig weiße PCIE Power Extensions für die Optik? Falls ja, mach die mal weg und schließ die Karte direkt ans Netzteil an.

horn 12
2025-04-01, 19:45:53
Vertausche bitte die 8-Pin Anschlüsse auf der Karte also 1 wird 2 und umgekehrt
Zudem nimm ein BeQuiet der Dark Power PRO Serie zur Hand und teste mit jenem
Sehr viele RDNA 4 Karten scheinen mit BeQuiet die Wenigsten Problem zu haben zwecks Fiepen und Zirpen.
Bei meiner alles Still und selbst 800 U/Min bei geschlossenem Gehäuse NICHT hörbar oder spielst du unterm, Neben dem Schreibtisch mit dem Ohr am Gehäuse!

dargo
2025-04-01, 19:56:09
Zudem nimm ein BeQuiet der Dark Power PRO Serie zur Hand und teste mit jenem

Gehts noch albernder? :freak: Jetzt sollen die User auch noch paar unterschiedliche Netzteile ausprobieren? Schon geile Hobbys. :crazy:

@Korken
Nimm also ~500€ in die Hand und bestelle dir gleich fünf neue Netzteile am besten von verschiedenen Herstellern und hoffe auf dein Glück. :ulol: Also wenn du sonst nichts zu tun hast. :D

Der_Korken
2025-04-01, 20:01:37
Benutzt du zufällig weiße PCIE Power Extensions für die Optik? Falls ja, mach die mal weg und schließ die Karte direkt ans Netzteil an.

Nope, ist direkt angeschlossen und die Kabel sind mit 40cm auch extra kurz. Ich hatte damals meine beim Scrollen zirpende 5700XT schon komplett abgeklopft, aber das Zirpen blieb immer unverändert: Kabelverlängerungen ab, PC in Wohnung von Kumpel angeschlossen, Netzteil vom Kumpel angeschlossen (jeweils mit und ohne Extensions), Karte in anderen PC gesteckt (einmal in meiner Wohnung, einmal in Wohung meiner Eltern). Beim Lastzirpen weiß ich nicht mehr, wie es sich verhielt, da mich das Idle-Zirpen viel wahnsinniger gemacht hat.

Vertausche bitte die 8-Pin Anschlüsse auf der Karte also 1 wird 2 und umgekehrt
Zudem nimm ein BeQuiet der Dark Power PRO Serie zur Hand und teste mit jenem
Sehr viele RDNA 4 Karten scheinen mit BeQuiet die Wenigsten Problem zu haben zwecks Fiepen und Zirpen.

Ersteres kann ich mal testen. Zweiteres wird schwer, weil ich gerade erst ein neues NT gekauft habe und ich mir keine Hardware rein zum rumprobieren kaufen möchte, die der Händler danach wegwerfen oder mit Abschlag verkaufen muss. Außerdem finde ich das kleine SFX-Netzteil mit den kurzen Kabeln genial :D.

gedi
2025-04-01, 20:44:17
Gehts noch albernder? :freak: Jetzt sollen die User auch noch paar unterschiedliche Netzteile ausprobieren? Schon geile Hobbys. :crazy:

@Korken
Nimm also ~500€ in die Hand und bestelle dir gleich fünf neue Netzteile am besten von verschiedenen Herstellern und hoffe auf dein Glück. :ulol: Also wenn du sonst nichts zu tun hast. :D

Dachte ich mir auch... Das Zirpen wird definitiv weniger, denn wahrscheinlich wurden die Spulen mit Wärmeleitpads versehen. Wenn die Dinger langsam eingehen und kein Kontakt zum Kühler mehr besteht, dann ist die Karte leise. Eigentlich eine Unart, denn die Spulen werden gerade mal handwarm.

crux2005
2025-04-01, 21:31:57
Haben die meisten 9070 XT wirklich kein support bracket? Oder anders, welche haben eins?

Der_Korken
2025-04-01, 21:36:20
Haben die meisten 9070 XT wirklich kein support bracket? Oder anders, welche haben eins?

Die Pure hat afaik eines, welches man an den Slotblenden mit verschraubt. Ob die was taugt, keine Ahnung.

w0mbat
2025-04-01, 21:41:08
Soweit ich weiß, haben alle Sapphire Karten eins.

Lurtz
2025-04-01, 21:42:57
Damit steht es hier im Thread für die Hellhound jetzt 2:1 rasseln (Lurtz und ich) vs kein rasseln (Wiseman). Vielleicht täuscht mich meine Erinnerung, aber ich glaube Wiseman hatte damals auch die gleiche 5700XT Nitro gehabt wie ich und im Gegensatz zu mir auch damals kein Rasseln gehabt. Könnte natürlich am Netzteil liegen. Ich habe neulich erst das Netzteil gewechselt von einem Bequiet Straight Power E10 500W auf ein Corsair SF750. Auf die MSI hatte der Wechsel keinen Einfluss bezüglich Rasseln. Das Bequiet habe ich hier noch rumliegen, aber irgendwie gerade keine Lust meine ganze Verkabelung wieder auseinanderzurupfen. Vor allem hat die 9070 übelste transiente Lasten über 400W@stock, d.h. das alte bequiet würde wohl sowieso nur mit gesenkten Powertarget laufen können.

In Furmark ist übrigens kein Rasseln zu hören, aber hier wird die Karte selbst mit 300W unter 2Ghz (!) gedrückt, was wiederum für meine Theorie spricht, dass hoher Takt = viel Rasseln bedeutet.
Das war bei mir auch so. Bei mir hat das Zirpen ja sogar mit Framelimiter skaliert, in TLOU zB gabs mit Framelimiter auch bei 180 W zirpen.

Bei 210 Watt wars schon insgesamt deutlich angenehmer/akzeptabel, mit entsprechenden Einbußen eben.

Wiseman
2025-04-01, 21:44:45
HZD Remastered @ 1440p FSR 4 Quality, kein FG, ingame alles auf Maximum

https://s1.directupload.eu/images/250401/g2inkas5.png

https://s1.directupload.eu/images/250401/dlpi3e2a.png

https://s1.directupload.eu/images/250401/9cikog6l.png

https://s1.directupload.eu/images/250401/og6kyd72.png

https://s1.directupload.eu/images/250401/b6vx8tbg.png

Herrliche Bilder. Ich seh schon, du bist auch so ein Bildqualitätsfreak wie ich. Ich kann mich an so etwas nicht satt genug sehen. Welche Grafikkarte hast du? ... Ach so, wie ich so eine 9070XT von AMD. Die mit dem tollen FSR 4. Ja dann. Alles klar.

Dann lass uns gemeinsam weiter genießen.

DrFreaK666
2025-04-02, 07:19:52
lHggWmmIRVg

crux2005
2025-04-02, 07:38:02
Die Pure hat afaik eines, welches man an den Slotblenden mit verschraubt. Ob die was taugt, keine Ahnung.

Soweit ich weiß, haben alle Sapphire Karten eins.

Danke. Die Gigabyte 9070 XT Gaming hat keins, was mich ein wenig gewundert hat.

https://youtu.be/lHggWmmIRVg

Interessant. Hoffentlich ist das sehr selten. Wäre mir aber nicht zu sicher. Wie gut TSMC oder AMDs QC ist/war habe ich ja selber mit den 5800X gemerkt. Ja, der Frust sitzt noch Tief.

dargo
2025-04-02, 12:25:04
https://youtu.be/lHggWmmIRVg
Interessanter Ausschuss. Hier ist aber wenigstens der Fehler sehr schnell erkennbar. 46°C Delta und ein so hoher Hotspot, da sollten bei jedem gleich die Alarmglocken angehen. Direkt Retoure damit.

Matrix316
2025-04-02, 12:37:10
7uHDspDFKZU

Dimon
2025-04-02, 12:38:24
Interessanter Ausschuss. Hier ist aber wenigstens der Fehler sehr schnell erkennbar. 46°C Delta und ein so hoher Hotspot, da sollten bei jedem gleich die Alarmglocken angehen. Direkt Retoure damit.

Hmm beim hotspot erreiche ich ca. 85 bis 89 grad...

Der_Korken
2025-04-02, 14:47:56
Damit steht es hier im Thread für die Hellhound jetzt 2:1 rasseln (Lurtz und ich) vs kein rasseln (Wiseman). Vielleicht täuscht mich meine Erinnerung, aber ich glaube Wiseman hatte damals auch die gleiche 5700XT Nitro gehabt wie ich und im Gegensatz zu mir auch damals kein Rasseln gehabt. Könnte natürlich am Netzteil liegen. Ich habe neulich erst das Netzteil gewechselt von einem Bequiet Straight Power E10 500W auf ein Corsair SF750. Auf die MSI hatte der Wechsel keinen Einfluss bezüglich Rasseln. Das Bequiet habe ich hier noch rumliegen, aber irgendwie gerade keine Lust meine ganze Verkabelung wieder auseinanderzurupfen. Vor allem hat die 9070 übelste transiente Lasten über 400W@stock, d.h. das alte bequiet würde wohl sowieso nur mit gesenkten Powertarget laufen können.

Kurzer Nachtrag: Ich habe das alte E10 doch mal notdürftig angeschlossen und mit -20% PT getestet. Subjektiv würde ich sagen, dass das Zirpen damit deutlich schlimmer ist als mit dem SF750. Insbesondere bilde ich mir ein, dass ich beim Scrollen wieder so ein leichtes Geräusch raushöre, was also dann wahrscheinlich mehr ein NT- als ein GPU-Problem war.

Generell finde ich es echt schwer das Zirpen zu lokalisieren. Mir kommt es so vor, als würden GPU und NT grundsätzlich synchron zirpen, d.h. wenn das eine Geräusche macht, dann kommen sie gleichzeitig auch aus der anderen Ecke. Wenn ich das Ohr ins Case halte, kommt das Zirpen gefühlt weniger von der GPU, sondern eher vom CPU-Sockel. Wenn ich niedriger gehe, sodass das Ohr unterhalb der GPU ist, dann kommt das Geräusch wieder eher aus GPU-Richtung. Afaik habe ich diese Beobachtung aber auch schon bei den vorigen GPUs gemacht.

Ich muss mich noch korrigieren: -500Mhz Offset resultieren nicht in 2880Mhz max. clock sondern 2930Mhz.

RoughNeck
2025-04-02, 15:09:31
Hmm beim hotspot erreiche ich ca. 85 bis 89 grad...

Bei welcher GPU Temp?
Die 7900 XTX Taichi meiner Frau hatte immer zwischen 53 - 58° GPU und 74 - 81° Hotspot, VRAM glaub ich lag so bei um die 80°

dargo
2025-04-02, 15:51:25
Ich muss mich noch korrigieren: -500Mhz Offset resultieren nicht in 2880Mhz max. clock sondern 2930Mhz.
Passt jetzt auch besser zu den oft vorkommenden max. 3450Mhz -500Mhz.

Dimon
2025-04-02, 18:20:36
Bei welcher GPU Temp?
Die 7900 XTX Taichi meiner Frau hatte immer zwischen 53 - 58° GPU und 74 - 81° Hotspot, VRAM glaub ich lag so bei um die 80°

Habe knapp 55 gpu und bis zu 98 vram (zumindest bei cyberpunk)

YeahBuoy!
2025-04-03, 14:36:23
Habs hier noch nicht gelesen, aber falls hier jemand hohe Hotspot Temperaturen auffallen wäre eine RMA sehr anzuraten: https://www.igorslab.de/fehlerhafte-chip-oberflaeche-ab-werk-bei-einer-radeon-rx-9070xt-extreme-hotspot-temperaturen-und-ursachenforschung-zum-pitting/

w0mbat
2025-04-03, 15:09:44
Hmm beim hotspot erreiche ich ca. 85 bis 89 grad...
Ist doch völlig unbedenklich. Gibt einen Grund, wieso Nvidia den Hotspot nicht mehr angibt.

RoughNeck
2025-04-03, 15:25:01
Habe knapp 55 gpu und bis zu 98 vram (zumindest bei cyberpunk)

VRAM finde ich hoch.
Ansonsten ist die GPU Temp zur HotSpot Temp im Rahmen.


Ist doch völlig unbedenklich. Gibt einen Grund, wieso Nvidia den Hotspot nicht mehr angibt.

Wahrscheinlich weil die Karten wärmer werden und das Gejammer wieder groß wäre, könnt ich mir jetzt vorstellen.

Der_Korken
2025-04-03, 15:50:38
Habe knapp 55 gpu und bis zu 98 vram (zumindest bei cyberpunk)

Die Temps hängen immer etwas vom Workload ab. Der Lüfter scheint primär über die Hotspot-Temp gesteuert zu werden. Allerdings schwankt das Delta zwischen Hotspot und Edge doch spürbar, sodass man bei gleichem PT trotzdem ein paar Grad Unterschiede bei den Temps hat, denn der Gesamtverbrauch sagt noch nicht direkt was darüber aus, wie sehr viel davon in Hotspots liegt und wieviel sich gut über den Chip verteilt. Dadurch hat man bei gleichem PT aber auch unterschiedliche Lüftergeschwindigkeiten und der VRAM bekommt mal mehr, mal weniger Wind ab. Workloads mit geringem Edge-Hotspot-Delta heizen z.B. den VRAM ordentlich auf, weil die Lüfter so langsam drehen.

dargo
2025-04-03, 16:11:15
Dadurch hat man bei gleichem PT aber auch unterschiedliche Lüftergeschwindigkeiten und der VRAM bekommt mal mehr, mal weniger Wind ab.
Ihr verwendet echt noch die Stock Lüfterkurven? :freak: Diese Dinger haben doch noch nie was richtig getaugt. Da gibt es bei den AIBs alles zwischen halbwegs brauchbar und reinste Katastrophe.

Edit:
Noch ein UV-Video.

eg0pe0Q0rxU

Wie ist eigentlich der aktuelle Stand zu MPT + RDNA4 Support? Wurde da schon wenigstens was angeteasert? Oder bereits komplett ausgeschlossen?

Achill
2025-04-03, 16:48:39
[..]
Wie ist eigentlich der aktuelle Stand zu MPT + RDNA4 Support? Wurde da schon wenigstens was angeteasert? Oder bereits komplett ausgeschlossen?

Ich gehe von "komplett ausgeschlossen" aus, sonst machen ja die OC-Modelle weniger Sinn ... ;)

Zumindest kann ich so nicht enttäuscht werden, und wenn es doch kommt, dann freue ich mich einfach. :)

Der_Korken
2025-04-03, 17:19:00
Ihr verwendet echt noch die Stock Lüfterkurven? :freak: Diese Dinger haben doch noch nie was richtig getaugt. Da gibt es bei den AIBs alles zwischen halbwegs brauchbar und reinste Katastrophe.

Das Phänomen trifft dich bei jeder Lüfterkurve. Du kannst ja nicht einfach die Input-Quelle ändern.

dargo
2025-04-03, 17:24:27
Ich gehe von "komplett ausgeschlossen" aus, sonst machen ja die OC-Modelle weniger Sinn ... ;)

Gabs keine OC-Modelle bei RDNA1/RDNA2? ;)

Das Phänomen trifft dich bei jeder Lüfterkurve. Du kannst ja nicht einfach die Input-Quelle ändern.
???

Du musst halt die custom Lüfterkurve mit Verstand einsetzen. :) Ich mache bsw. schon ab 70°C GPU Hotspot die maximale Lüfterdrehzahl von 1.100-1.200RPM (je nachdem wie gut die Lüfter sind) rein und höher gehts dann nicht mehr. Kann mir kaum vorstellen, dass du Gamingworkloads hast wo der Vram bereits am kochen ist und der GPU-Hotspot noch unter 70°C liegt. Sollte tatsächlich so ein setsames Szenario vorkommen haust du halt noch etwas früher max. RPM rein, bsw. ab 65°C.

dargo
2025-04-03, 17:30:44
del

Der_Korken
2025-04-03, 17:39:13
???

Du musst halt die custom Lüfterkurve mit Verstand einsetzen. :) Ich mache bsw. schon ab 70°C GPU Hotspot die maximale Lüfterdrehzahl von 1.100-1.200RPM (je nachdem wie gut die Lüfter sind) rein und höher gehts dann nicht mehr. Kann mir kaum vorstellen, dass du Gamingworkloads hast wo der Vram bereits am kochen ist und der GPU-Hotspot noch unter 70°C liegt. Sollte tatsächlich so ein setsames Szenario vorkommen haust du halt noch etwas früher max. RPM rein, bsw. ab 65°C.

OK, kann man machen. Ich persönlich mag solche "Plateau-Kurven" nicht, weil man kurz vor dem Plateau eine stärkere Steigung hat und bei zu wenig Last die Karte da ständig hoch- und runterdreht.

gedi
2025-04-03, 17:42:53
Da man das PT auf bis zu -30% stellen kann, empfinde ich das Fehlen des MPTs nicht als großes Problem. Und da die PCBs eh nicht für weiter über 400w ausgelegt scheinen, empfinde ich die Entscheidung seitens AMD so nicht ganz verkehrt, dem MPT eine Absage zu erteilen.

dargo
2025-04-03, 17:43:52
Das ist doch Unsinn... die Spanne bei mir aktuell liegt zwischen 620RPM und 1170RPM. Eine absolut flache Lüfterkurve in 5°C Schritten zwischen 50 und 70°C Hotspot. Natürlich sollte man von Anfang an vernünftige Kühlerlösungen nehmen und nicht irgendeinen bullshit mit 1.800RPM oder gar noch mehr. Und weniger als 300W Abwärme sind dabei auch sehr hilfreich. ;)

Da man das PT auf bis zu -30% stellen kann, empfinde ich das Fehlen des MPTs nicht als großes Problem. Und da die PCBs eh nicht für weiter über 400w ausgelegt scheinen, empfinde ich die Entscheidung seitens AMD so nicht ganz verkehrt, dem MPT eine Absage zu erteilen.
Woher saugt ihr euch immer eure Geschichten? :freak: Wo hat AMD MPT eine Absage erteilt? :freak:

aufkrawall
2025-04-03, 17:52:21
Du solltest eher mal aus deinem Luftschloss kommen, weshalb sie noch wieder SPPT freischalten sollten, wenn sie es absichtlich nicht mehr zugänglich gemacht haben.

Der_Korken
2025-04-03, 18:02:22
Ich weiß nicht, ob es am 25.3.2 liegt oder dass ich überhaupt erstmalig mit der 9070XT einen Treiber installiert habe (hatte mit dem 25.3.1 einfach nur die Karte getauscht und sonst nix gemacht), aber bei absolut statischen Bild ist die Karte jetzt trotz 4K240 auf bis zu 4W Board Power runter. Mauszeiger bewegen oder ein Smiley wie der hier ;D machen es aber sofort kaputt und der Verbrauch bleibt bei 23W. Gleiches gilt, wenn z.B. ein Youtube-Video in einem Hintergrund-Tab läuft oder wenn man einen nicht minimierten Music Player aufhat, wo sich der Zeitbalken bewegt. Kann beim Lesen aber trotzdem Strom sparen, gerade wenn man beim Coden mal nachdenkt.

Zwischen 4K240 und 4K165 (oder niedriger) ist damit für mich quasi kein Unterschied mehr. Dafür hat der 25.3.2 aber ein paar Hickups, weil ich es jetzt schon mehrmals gesehen habe, dass die Board Power auf dem Desktop mal plötzlich auf 150W+ hochschießt und kurz danach wieder absinkt. Einmal sind davon sogar die Lüfter angegangen. Da das mit dem 25.3.1 nicht war, tippe ich mal auf Software-Bug.

gedi
2025-04-03, 18:45:24
Das ist doch Unsinn... die Spanne bei mir aktuell liegt zwischen 620RPM und 1170RPM. Eine absolut flache Lüfterkurve in 5°C Schritten zwischen 50 und 70°C Hotspot. Natürlich sollte man von Anfang an vernünftige Kühlerlösungen nehmen und nicht irgendeinen bullshit mit 1.800RPM oder gar noch mehr. Und weniger als 300W Abwärme sind dabei auch sehr hilfreich. ;)


Woher saugt ihr euch immer eure Geschichten? :freak: Wo hat AMD MPT eine Absage erteilt? :freak:


Prinzipiell ist es so: Je höher die Boardpower, je größer das Delta zwischen GPU-Temp und Hotspot. Das Delta hier sind mit 374w ~30°C und mit 238w ~13°C. Darum ist es wichtig, wenn man die 9070 nicht gerade unter Wasser gestellt hat, für jedes Game ein eigenes OC/UC und Lüfterkurve zu erstellen.

dargo
2025-04-03, 19:24:07
Du solltest eher mal aus deinem Luftschloss kommen, weshalb sie noch wieder SPPT freischalten sollten, wenn sie es absichtlich nicht mehr zugänglich gemacht haben.
"Kaputten" RDNA3 hast du wieder vergessen? Oder gibt es bei N48 auch kein SPPT? Dazu hatte ich noch keine Infos gesehen.

Ich weiß nicht, ob es am 25.3.2 liegt oder dass ich überhaupt erstmalig mit der 9070XT einen Treiber installiert habe (hatte mit dem 25.3.1 einfach nur die Karte getauscht und sonst nix gemacht), aber bei absolut statischen Bild ist die Karte jetzt trotz 4K240 auf bis zu 4W Board Power runter. Mauszeiger bewegen oder ein Smiley wie der hier ;D machen es aber sofort kaputt und der Verbrauch bleibt bei 23W. Gleiches gilt, wenn z.B. ein Youtube-Video in einem Hintergrund-Tab läuft oder wenn man einen nicht minimierten Music Player aufhat, wo sich der Zeitbalken bewegt. Kann beim Lesen aber trotzdem Strom sparen, gerade wenn man beim Coden mal nachdenkt.

Brauchst du unbedingt die 240Hz am Desktop? Mit 120Hz hast du jedenfalls Ruhe. Ansonsten vielleicht noch 180Hz am Desktop testen.

Prinzipiell ist es so: Je höher die Boardpower, je größer das Delta zwischen GPU-Temp und Hotspot. Das Delta hier sind mit 374w ~30°C und mit 238w ~13°C. Darum ist es wichtig, wenn man die 9070 nicht gerade unter Wasser gestellt hat, für jedes Game ein eigenes OC/UC und Lüfterkurve zu erstellen.
Hä? Wo ist da der Kontext jetzt? Das Delta zwischen GPU Edge und GPU Hotspot ist für die Lüftersteuerung völlig wayne. Diese greift nur auf GPU-Hotspot Daten.

für jedes Game ein eigenes OC/UC und Lüfterkurve zu erstellen.
Du musst echt Langerweile im Leben haben. X-D Oder jemand dem du sowas vorschlägst.

GerryB
2025-04-03, 19:53:51
Das Delta zwischen GPU Edge und GPU Hotspot ist für die Lüftersteuerung völlig wayne. Diese greift nur auf GPU-Hotspot Daten.

GB und Asus regeln bestimmt nach Edge.

Du musst echt Langerweile im Leben haben. Oder jemand dem du sowas vorschlägst.
Wo ist da das Problem?
Nach nem Crash stellt man in dem Gameprofil das UVen etwas zurück und fertig.

Dauert nullkommagarnix Extra, weils ja eeh gemacht werden muss.

dargo
2025-04-03, 19:55:28
GB und Asus regeln bestimmt nach Edge.

Quelle? Wäre auch ziemlich dumm.

GerryB
2025-04-03, 19:57:35
Quelle? Wäre auch ziemlich dumm.
wäre ziemlich normal für overall AIB´s, weils bei den grünen Modellen so ist (eine Methode für Alle, egal ob red oder green)
Die Lü.steuerung ist bei meiner 6800 MSi so.


btw.
NV zeigt gar keine Hotspottemp. und verschweigt auch aus gutem Grund die innere Vramjunction.
Da war doch mal Was bei den 3080ern.
https://www.igorslab.de/en/gddr6x-am-limit-ueber-100-grad-bei-der-geforce-rtx-3080-fe-im-chip-gemessen-2/

AMD seinerseits zeigt die hohe Vramjunction und nicht die deutlich niedrigeren Vramtemps, die man bei Igor
in der Thermografie sieht.

gedi
2025-04-03, 20:20:37
"Kaputten" RDNA3 hast du wieder vergessen? Oder gibt es bei N48 auch kein SPPT? Dazu hatte ich noch keine Infos gesehen.


Brauchst du unbedingt die 240Hz am Desktop? Mit 120Hz hast du jedenfalls Ruhe. Ansonsten vielleicht noch 180Hz am Desktop testen.


Hä? Wo ist da der Kontext jetzt? Das Delta zwischen GPU Edge und GPU Hotspot ist für die Lüftersteuerung völlig wayne. Diese greift nur auf GPU-Hotspot Daten.


Du musst echt Langerweile im Leben haben. X-D Oder jemand dem du sowas vorschlägst.

Sorry, aber mir scheint, dass du mittlerweile komplett out of Date bist!

Der_Korken
2025-04-03, 20:25:16
Brauchst du unbedingt die 240Hz am Desktop? Mit 120Hz hast du jedenfalls Ruhe. Ansonsten vielleicht noch 180Hz am Desktop testen.

Brauchen nein, aber mit dem 25.3.2 macht es verbrauchstechnisch aus meiner Sicht keinen Unterschied mehr. Dann nehm ich halt die dicken Hz, wenns nichts kostet.

wäre ziemlich normal für overall AIB´s, weils bei den grünen Modellen so ist (eine Methode für Alle, egal ob red oder green)
Die Lü.steuerung ist bei meiner 6800 MSi so.


btw.
NV zeigt gar keine Hotspottemp. und verschweigt auch aus gutem Grund die innere Vramjunction.

Prinzipiell gebe ich dir Recht, dass eine Edge-Temperatur für die Regelung besser geeignet ist, denn die Lüfter kühlen in erster Linie den Radi und dessen Temperatur korreliert wahrscheinlich besser mit der Edge-Temperatur als mit der Hotspot-Temperatur. Hotspots sind ein Problem des Wärmetransports zwischen Chip und Kühler, nicht zwischen Kühler und Umgebungsluft. Sobald die Hotspots aber kritisch werden, sollte trotzdem die Lüftersteuerung eingreifen - und sei es nur, um den User darauf aufmerksam zu machen, dass hier was nicht in Ordnung ist.

Edit:

Darum ist es wichtig, wenn man die 9070 nicht gerade unter Wasser gestellt hat, für jedes Game ein eigenes OC/UC und Lüfterkurve zu erstellen.

Hast du oder jemand anders zufällig noch Witcher 3? Hier sind trotz -500Mhz nichtmal -80mV stabil. In 4K ohne RT nach 15m gecrashed.

Der_Korken
2025-04-03, 21:34:51
del

Bismarx
2025-04-03, 21:56:31
Hast du oder jemand anders zufällig noch Witcher 3? Hier sind trotz -500Mhz nichtmal -80mV stabil. In 4K ohne RT nach 15m gecrashed.

Tatsächlich ist mein -80 mV-Setting mit dem Beta-Treiber auch instabil geworden. Aber Adrenalin übernimmt nun auch die Einstellungen nicht mehr zuverlässig. Ggf. greifen die -500 nicht.

Würde vorschlagen: probiere den alten Treiber.

Der_Korken
2025-04-03, 23:58:57
Tatsächlich ist mein -80 mV-Setting mit dem Beta-Treiber auch instabil geworden. Aber Adrenalin übernimmt nun auch die Einstellungen nicht mehr zuverlässig. Ggf. greifen die -500 nicht.

Würde vorschlagen: probiere den alten Treiber.

Der Takt hing bei 2850-2880Mhz, obwohl kein CPU-Limit und PT nicht ausgereizt. Die Spannung passte auch zu -80mV, ausgehend von den Defaulteinstellungen. Da war also alles korrekt eingestellt. Mit -70mV lief es übrigens eine Stunde stabil, bevor ich es selbst beendet habe.

dargo
2025-04-04, 07:13:52
Hast du oder jemand anders zufällig noch Witcher 3? Hier sind trotz -500Mhz nichtmal -80mV stabil. In 4K ohne RT nach 15m gecrashed.
Um wieviel mV geht tatsächlich deine Spannung runter in diesem Szenario? Diesen Wert finde ich wesentlich interessanter als die nichts aussagenden -xmV im Treiber.

Bismarx
2025-04-04, 09:42:17
Ist auch so ein Punkt: bei mir ist mit dem Beta-Treiber auch der "mV"-Regler "kaputt". Mal funktioniert er, mal nicht.

Die schwankende Zuverlässigkeit der Adrenalin-OC-Einstellungen ist aber auch nichts neues. Das war schon bei meiner Vega56 so; nur weil ein Setting mit Treiber X funktionierte, hieß das nicht, dass dies auch für Treiber Y notwendigerweise der Fall war.

Raff
2025-04-04, 10:05:14
Ist schon witzig, wenn man mal nach "Min-Fps", also Perzentilen, sortiert ... :biggrin:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=92441&stc=1&d=1743753904

-> https://www.pcgameshardware.de/The-Last-of-Us-Part-2-Remastered-Spiel-74482/Specials/PC-Release-Review-Steam-Test-Benchmarks-1469049/3/


MfG
Raff

G3cko
2025-04-04, 10:27:03
Ich halte die Min-fps zwar für interessant, aber nur als Anhaltspunkt für grundsätzlich Defizite im Design. Schon die avg fps sind ja nur ein Ausschnitt aus einer kurzen Testszene. Ein einzelner min Frame ist noch viel ungenauer.

GerryB
2025-04-04, 11:50:58
dann schau Dir halt die Frametimes im Verlauf an
(ist auch im Review)

Es bleibt dabei, Red läuft deutlich smoother.

M4xw0lf
2025-04-04, 12:37:58
Ich halte die Min-fps zwar für interessant, aber nur als Anhaltspunkt für grundsätzlich Defizite im Design. Schon die avg fps sind ja nur ein Ausschnitt aus einer kurzen Testszene. Ein einzelner min Frame ist noch viel ungenauer.
Natürlich geht es hier nicht um einen einzelnen Frame, sondern um ein Perzentil mit besonders langen Frametimes.

dargo
2025-04-04, 13:03:43
Ist schon witzig, wenn man mal nach "Min-Fps", also Perzentilen, sortiert ... :biggrin:

Nicht wirklich wenn das Framepacing auf Geforce im Eimer ist.
https://www.computerbase.de/artikel/gaming/the-last-of-us-part-2-benchmark-test.91962/seite-2

kokett
2025-04-05, 04:49:41
Hier hat jemand eine 9070 gegen eine 6950XT in 4K ohne RT in 7 Games antreten lassen:
https://www.youtube.com/watch?v=xCN2nkXwf5c

die 9070 zieht den Kürzeren...?

Spring
2025-04-05, 08:44:19
Stalker 2 @ 1440p FSR 4 native, FG on, alles epic

Offsets: +225 MHz / -45mV / +10% PT / VRAM 2666 MHz
Graka-Lüfter: max 1400 rpm

https://s1.directupload.eu/images/250405/yf3sor5k.png

https://s1.directupload.eu/images/250405/tpmj82ar.png

https://s1.directupload.eu/images/250405/hys44i7n.png

DrFreaK666
2025-04-05, 09:16:54
Hier hat jemand eine 9070 gegen eine 6950XT in 4K ohne RT in 7 Games antreten lassen:
https://www.youtube.com/watch?v=xCN2nkXwf5c

die 9070 zieht den Kürzeren...?

Kann ich mir eigentlich nicht vorstellen.
Laut älteren Benchmarks ist die Performance der 7900GRE der 6950XT sehr ähnlich und die 9070 ist schneller als die 7900GRE

Dimon
2025-04-05, 13:37:43
Mist ich werde wohl die Graka zurückschicken, habe bei Cyberpunk 100 Grad Ram temp erreicht, dann ist das Spiel abgestürzt.


Anonsten ist das Spulenfiepen recht laut, schon im zweistelligen bereich :mad:


Also die ASUS TUF gefällt mir nicht..

Hakim
2025-04-05, 14:00:17
Laut Tests war die TUF noch halbwegs gut bei den Ram temps im Vergleich, schon komisch, evt das Hotspot Problem was zusätzlich heizt und dafür sorgt?

Ex3cut3r
2025-04-05, 14:06:12
Vlt. hat er ein Montags Modell erwischt?

HOT
2025-04-05, 14:15:21
Asus kann das mit der WLP auch richtig verkacken, da gabs einige Modelle.

Dimon
2025-04-05, 14:20:56
Könnte schon sein, mit Indiana Jones dasselbe problem, immer 100 Grad...


Habe die Graka im Quiet modus laufen, das Gehäuse ist ein Bequiet Dark Base 900 mit allen 140mm belegten Plätzen, ist also sehr gut belüftet... Die RTX 4090 hatte diesbezüglich keine probleme :redface:

Der_Korken
2025-04-05, 14:58:39
Könnte schon sein, mit Indiana Jones dasselbe problem, immer 100 Grad...


Habe die Graka im Quiet modus laufen, das Gehäuse ist ein Bequiet Dark Base 900 mit allen 140mm belegten Plätzen, ist also sehr gut belüftet... Die RTX 4090 hatte diesbezüglich keine probleme :redface:

Klingt nach Montagsmodell. Mehr als 94 Grad VRAM habe ich hier bisher nicht gesehen, auch mit lascher Lüfterkurve nicht. Wenn es im Defaultzustand sogar abstürzt, hätte ich keine Hemmungen das Ding einzuschicken.

Um wieviel mV geht tatsächlich deine Spannung runter in diesem Szenario? Diesen Wert finde ich wesentlich interessanter als die nichts aussagenden -xmV im Treiber.

Ich habe u.a. auch wegen der von Bismarx geschätzten V/f-Kurve ein wenig Data Mining betrieben. Dazu habe ich die aktuellste Version von GPU-Z benutzt, um während des Betriebs die Werte zu loggen und in ein CSV-File zu schreiben. Zum Testen habe ich einen Spielstand bei Witcher 3 (in der aktuellesten Version) geladen (4K, kein RT, kein FSR, kein Framelimit) und mich dort immer wieder im Kreis gedreht. Um verschiedene Taktraten zu bekommen, habe ich das Spiel immer wieder minimiert und das PT in 2% variiert von -30% bis +10%. Genutzt habe ich das 304W der Hellhound. Takt-Offset stand auf -300Mhz (sollte aber egal sein). Die Lüfterkurve ist etwas aggressiver als die standardmäßige, aber auch das sollte egal sein, da ich die V/f-Kurve messen will und keine Temperaturen oder fps. In allen Datensätzen habe ich alle Punkte rausgefiltert, wo die GPU Load kleiner als 99% war. Die erste Messung ist ohne UV, die zweite Messung mit -70mV.

Die Plots sind alle im Anhang. Man sieht dort folgendes:

1. Plot: Die obere Linie sind die Messpunkte aus der ersten Messung, die untere Linie aus der zweiten Messung. Die Farbe der Punkte entspricht dem dabei gemessenen Board Power Draw. Man sieht, dass die Punkte relativ klar einer V/f-Kurve folgen und dabei nur wenig Variation zeigen. Es gibt ein paar Ausreißer, wo deutlich mehr Spannung anlag in Relation zum Takt - insbesondere im kleineren Taktbereich, den ich der Übersicht halber ausgeblendet habe, Ich vermute, dass diese Ausreißer durch das Raus- und Reintabben entstanden sind, dann das musste ich zum Ändern des PT sehr häufig tun.

Die V/f-Kurve ist eigentlich eher eine Linie, zumindest im Bereich unter 2700Mhz. Dort macht sie dann einen Knick und hat eine leicht größere Steigung. Bei der UV-Kurve sieht man aber, dass die Kurve bei etwa 2820Mhz wieder zurück knickt und eher der alten Steigung folgt. Über 2900Mhz fransen die Punkte relativ stark auseinander, warum auch immer.

2. Plot: Um zu messen, wie viel UV tatsächlich anliegt, habe ich die untere Kurve so weit nach oben geschoben, bis sie in etwa über der oberen Kurve liegt. Zur Unterscheidung sind die Datensätze unterschiedlich eingefärbt: rot = stock, blau = UV. Der hier zu sehende Shift liegt bei 0,067, d.h. es wird minimal zu wenig UV angewendet. Interessanterweise sind die Kurven nicht identisch, sondern ab 2700Mhz wird das UV etwas schwächer, d.h. die Kurve steigt stärker an als die Default-Kurve.

3. Plot: Um zu schauen, ob es bei der Temperatur irgendwelche Anomalien gibt, die für die Differenzen in den Kurven führen, habe ich nochmal Verbrauch gegen Hotspot-Temperatur geplottet. Hier sieht man, dass im oberen Bereich die roten Punkte etwas kühler liegen als die blauen, aber das würde ich eher darauf zurückführen, dass ich die Karte nicht vorgeheizt habe und ich ohne UV bei max. PT begonnen habe und mich dann runtergearbeitet habe. Ich würde also nicht zu viel in den Plot reininterpretieren. Idealerweise müsste man die GPU immer auf konstanter Temperatur halten oder nach jedem PT-Wechsel sich die Temperatur setzen lassen, bevor man misst, aber das ist mir zu viel Arbeit.

aufkrawall
2025-04-05, 15:02:09
Mist ich werde wohl die Graka zurückschicken, habe bei Cyberpunk 100 Grad Ram temp erreicht, dann ist das Spiel abgestürzt.

Unwahrscheinlicher Zusammenhang, bei instabilem VRAM gibts eher Hardcore-Blackscreens.

Dimon
2025-04-05, 15:48:12
Unwahrscheinlicher Zusammenhang, bei instabilem VRAM gibts eher Hardcore-Blackscreens.

War halt ein sehr zusammenhängender absturz, sobald die 100 erreicht wurden ist cyberpunk "abgekratzt". evtl. Wurde da eine Schwelle überschritten ohne einen blackscreen zu produzieren...

Also ich war aktiv dran :)

aufkrawall
2025-04-05, 16:07:33
memtest_vulkan läuft hier anstandslos bei testweise min rpm und 102°C VRAM...

Ex3cut3r
2025-04-05, 16:15:44
GDDR6 ist laut Spec bis 105 Grad angeben.

Mit 100 Grad sollte also nix abschmiereren.

HOT
2025-04-05, 16:40:24
Der (Chip-)Hotspot hält 100° aus, der RAM sollte aber nicht dauerhaft mit 100° laufen. Ich denke mal, das wird doch recht stark zur Alterung beitragen. Wie Ex3cut3r schon schrieb, darf das aber bei den 100° nicht abstürzen, das liegt dann an was anderem. Ne Karte darf gar nicht deswegen abstürzen, da die einfach anfängt die Takte soweit zu reduzieren, dass sie halt die Spezifikationen nicht reißt. Wenn der RAM 100°+ läuft, stimmt was mit den Wärmeleitpads nicht, dann sollte man vielleicht RMA machen oder die Karte mal aufmachen.
Wie gesagt versagte bei fast allen meinen Karten, die ich hatte, irgendwann die Wärmeleitpaste, manche früher, manche später. Meine 5700XT Strix z.B. lief schon nach ein paar Wochen nicht mehr rund, Paste getauscht gegen eine viskosere und das hält dann auch länger.

Editiert für die ganz schlauen.

aufkrawall
2025-04-05, 16:53:39
Glaube nicht, dass da irgendwas massenhaft nicht stimmen würde. Das dürfte eher VRAM-Hotspot sein, denn wenn das Edge wäre, wäre der Hotspot auf irgendeinem der vielen Chips bei dem ganzen Schindluder, den die Kartenhersteller betreiben, wahrscheinlich ständig >120°C. Und das dürfte dann wirklich zu viel sein und vermehrt vor Gewährleistungsablauf sterben. Und so blöd werden die Hersteller auch nicht sein.

ChaosTM
2025-04-05, 16:55:40
sinds das wirklich GPU Hotspot Messungen oder die der Spawas.. die 290X lief für 2 Jahre > 110°

dargo
2025-04-05, 16:58:20
Asus kann das mit der WLP auch richtig verkacken, da gabs einige Modelle.
Hä? Was hat die WLP (hat die Karte überhaupt WLP? die sind mittlerweile eher selten vertreten) mit dem Vram Hotspot zu tun? :freak:

PS: bei den GPU Dies wird aktuell oft Honeywell PTM7950 verwendet.

Könnte schon sein, mit Indiana Jones dasselbe problem, immer 100 Grad...


Habe die Graka im Quiet modus laufen, das Gehäuse ist ein Bequiet Dark Base 900 mit allen 140mm belegten Plätzen, ist also sehr gut belüftet... Die RTX 4090 hatte diesbezüglich keine probleme :redface:
Check mal folgendes, ich habe da so einen Verdacht. Quiet Bios bedeutet in der Regel geringe Lüfterdrehzahlen der Graka. Nicht, dass deine Gehäuselüfter kontraproduktiv für die Grakalüfter sind, also die in der Front bzw. alle die Richtung Graka pusten. Ergo lasse die Seitenwand offen und deaktiviere alle Gehäuselüfter. Wird der Vram damit immer noch so heiß?


Die Plots sind alle im Anhang. Man sieht dort folgendes:

1. Plot: Die obere Linie sind die Messpunkte aus der ersten Messung, die untere Linie aus der zweiten Messung. Die Farbe der Punkte entspricht dem dabei gemessenen Board Power Draw. Man sieht, dass die Punkte relativ klar einer V/f-Kurve folgen und dabei nur wenig Variation zeigen. Es gibt ein paar Ausreißer, wo deutlich mehr Spannung anlag in Relation zum Takt - insbesondere im kleineren Taktbereich, den ich der Übersicht halber ausgeblendet habe, Ich vermute, dass diese Ausreißer durch das Raus- und Reintabben entstanden sind, dann das musste ich zum Ändern des PT sehr häufig tun.

Ähm... schon mal Alt + R probiert? ;)

aufkrawall
2025-04-05, 17:04:20
PS: bei den GPU Dies wird aktuell oft Honeywell PTM7950 verwendet.
Ja, das steht für Asus-Karten auch in der Übersicht im hwluxx-Forum (Link gerade nicht parat).
Und auf den VRAM-Chips wird halt der herkömmliche Pad-Kram kleben.

HOT
2025-04-05, 17:55:44
Glaube nicht, dass da irgendwas massenhaft nicht stimmen würde. Das dürfte eher VRAM-Hotspot sein, denn wenn das Edge wäre, wäre der Hotspot auf irgendeinem der vielen Chips bei dem ganzen Schindluder, den die Kartenhersteller betreiben, wahrscheinlich ständig >120°C. Und das dürfte dann wirklich zu viel sein und vermehrt vor Gewährleistungsablauf sterben. Und so blöd werden die Hersteller auch nicht sein.

Wieso das? Die werden einfach arschlaut und fangen irgendwann an zu throtteln. Auch VRAM throttelt wenn der die 105° überschreitet. Hatte Igor das nicht sogar mal getestet? Es gibt eben unheimlich viele super laute ältere Karten da draußen. Wieviele ich da schon wieder fitbekommen habe...
VRAM ist normal aber nie ein Problem in der Hinsicht, da die Pads sich ja kaum abnutzen sondern nur austrocknen. Wie schon vorher erwähnt ist das mMn ein RMA-Grund, wenn der VRAM super heiß wird, da die Karte dann ja u.U. nicht mehr die volle Performance liefert.

gedi
2025-04-05, 18:05:55
Mal davon abgesehen, dass ich nie wieder eine Asus-Karte kaufen werde (quietsch-Problem), scheint es so, dass da etwas beim Zusammenbau vermurkst wurde. Entweder RMA, oder Tausch gegen eine andere Marke.

aufkrawall
2025-04-05, 18:05:56
Wieso das? Die werden einfach arschlaut und fangen irgendwann an zu throtteln. Auch VRAM throttelt wenn der die 105° überschreitet.
Dann ist das aber erst recht Hotspot, denn sonst wäre bei 105°C Edge der Hotspot bei ~125°C. :rolleyes:
Wenn die Drosselung das dauerhaft in dem Bereich hält, wär das auch nicht so geil...
Auch wären harte Fakten bez. aktueller Gens gut, und nicht Überlieferungen von anno dunnemals. Hier wird seit Wochen alles Mögliche an völlig unbewiesenen Hypothesen zu einem einzigen Geschwurbel vermengt...

Hat auch einen Furz mit Asus zu tun, hohe ausgelesene VRAM-Temps gibts mit ~allen Herstellern..

HOT
2025-04-05, 18:10:55
Gute Frage wo der Hotspot bei RDNA4 liegt. Meine XTX hat damals selbst über 110° nicht gethrottelt. Hier war der Hotspot-Max bei 115°.

Was VRAM angeht:
https://www.igorslab.de/gddr6-speichertemperaturen-verstaendlich-erklaert-und-nachgemessen-macht-amd-alles-richtig-grundlagen/

ChaosTM
2025-04-05, 19:08:24
Again - Hotspot auf der Karte oder daneben auf den Spawas..?

Kann man leicht verwechseln

aufkrawall
2025-04-05, 19:51:15
Gute Frage wo der Hotspot bei RDNA4 liegt. Meine XTX hat damals selbst über 110° nicht gethrottelt. Hier war der Hotspot-Max bei 115°.

Du verstehst aber schon, dass ich den Hotspot vom VRAM meine?

Dimon
2025-04-06, 12:40:20
Check mal folgendes, ich habe da so einen Verdacht. Quiet Bios bedeutet in der Regel geringe Lüfterdrehzahlen der Graka. Nicht, dass deine Gehäuselüfter kontraproduktiv für die Grakalüfter sind, also die in der Front bzw. alle die Richtung Graka pusten. Ergo lasse die Seitenwand offen und deaktiviere alle Gehäuselüfter. Wird der Vram damit immer noch so heiß?


Hi Dargo,


so ist es bei mir aufgebaut, die Gehäuselüfter unterstützen quasi die graka mit dem luftstrom. Es gibt keine hindernisse ausser die Soundkarte unten.


Viele Grüsse

dargo
2025-04-06, 14:17:58
Wie gesagt... Frontlüfter deaktivieren, zur Sicherheit linke Seitenwand öffnen und schauen wie warm der Vram wird. Die Soundkarte falls möglich für den Test ausbauen.

Dimon
2025-04-06, 14:35:47
Alles klar, danke, ich melde mich dann

@edit: Leider keine besserung, was mir auffällt ist das der Vram nur sehr langsam seine temperatur nach der belastung verliert, wie siehts bei euch aus?

@edit 2: sieht so aus das da ein Ram baustein vergessen wurde, nach knapp 15 Minuten im idle ist der RAM 72 Grad heiss, bei interaktion ist er nun auf 76 gestiegen, bei offenem Gehäuse...

dargo
2025-04-06, 17:54:48
@edit: Leider keine besserung
Hmm... ok, schade. War nur eine Idee.

GerryB
2025-04-06, 18:52:09
9070nonXT@9070XT-Bios bei Gurdi

https://extreme.pcgameshardware.de/threads/amd-radeon-rdna-4-laberthread.657190/page-113#post-11850598

https://www.techpowerup.com/vgabios/274387/asus-rx9070xt-16384-241204-2
obs genau, das Bios ist, wird er hoffentlich noch schreiben
(flashen sicherlich mit Programmer wie Oese mit seiner XT)

edit: ist das Bios

Nachahmung jetzt noch nicht empfohlen, erstmal abwarten wie es Langzeit stabil bleibt.

gedi
2025-04-06, 18:52:21
Alles klar, danke, ich melde mich dann

@edit: Leider keine besserung, was mir auffällt ist das der Vram nur sehr langsam seine temperatur nach der belastung verliert, wie siehts bei euch aus?

@edit 2: sieht so aus das da ein Ram baustein vergessen wurde, nach knapp 15 Minuten im idle ist der RAM 72 Grad heiss, bei interaktion ist er nun auf 76 gestiegen, bei offenem Gehäuse...

Tausch die Karte gegen eine Neue. Alternativ kannst du den Hersteller fragen, ob du selbst ein neues Wärmleitmittel auftragen kannst, ohne die Garantie zu verlieren.

Probiere folgendes: Lüfter 100%, Ohrstöpsel rein und schauen, wie es sich dann verhält. Wenn dies kaum Wirkung erzeugt, dann hat der Vram keinen/unzureichenden Kontakt zum Kühler.

Dimon
2025-04-06, 19:40:04
Tausch die Karte gegen eine Neue. Alternativ kannst du den Hersteller fragen, ob du selbst ein neues Wärmleitmittel auftragen kannst, ohne die Garantie zu verlieren.

Probiere folgendes: Lüfter 100%, Ohrstöpsel rein und schauen, wie es sich dann verhält. Wenn dies kaum Wirkung erzeugt, dann hat der Vram keinen/unzureichenden Kontakt zum Kühler.

Wann die grafikkarte noch gedreht war, hat das teil vollgas geschoben, hatte damals ca. 94 bis 96 grad beim Vram.

Habe die graka nun eingepackt, morgen gibts einen anruf bei galaxus, mal sehen was die machen wollen...

Der_Korken
2025-04-06, 20:20:56
@edit 2: sieht so aus das da ein Ram baustein vergessen wurde, nach knapp 15 Minuten im idle ist der RAM 72 Grad heiss, bei interaktion ist er nun auf 76 gestiegen, bei offenem Gehäuse...

Ich sehe bei dir 38W Board Power im "Idle". Bei so viel Verbrauch geht mein VRAM auch nicht unter 70°C. Ich hatte ja schon geschrieben, dass das deutlich mehr ist als bei anderen GPUs, die ich so kenne. Wenn der VRAM nach Ende der Belastung nur langsam abkühlt, ist das imho erstmal kein schlechtes Zeichen, sondern der Kontakt zum Kühler muss ganz gut sein, wenn letzterer den VRAM noch lange "warm hält".

gedi
2025-04-06, 21:26:51
Ich sehe bei dir 38W Board Power im "Idle". Bei so viel Verbrauch geht mein VRAM auch nicht unter 70°C. Ich hatte ja schon geschrieben, dass das deutlich mehr ist als bei anderen GPUs, die ich so kenne. Wenn der VRAM nach Ende der Belastung nur langsam abkühlt, ist das imho erstmal kein schlechtes Zeichen, sondern der Kontakt zum Kühler muss ganz gut sein, wenn letzterer den VRAM noch lange "warm hält".

Du darfst aber nicht vergessen, dass da die Lüfter wahrscheinlich aus sind. Unter 2D ist es hier so: Lüfter aus, GPU, 45°C, Hotspot 47°C, Vram 55°C. Film in Prime schauen in 4k mit HDR schauen sind ~60w.

RoughNeck
2025-04-07, 08:01:48
https://m.youtube.com/watch?v=XMDUBmt1lmA

Für den ein oder anderen sicher interessant.

dargo
2025-04-07, 08:25:21
Nur 150RPM mehr an der Nitro+ senken so stark die Vram Temperatur? Schon etwas strange. Als ob die Lüfter im Werkszustand kaum Druck erzeugen.

dildo4u
2025-04-07, 08:46:23
9700 Hellhound review 900 RPM mit dem "OC" Bios


https://www.techpowerup.com/review/powercolor-radeon-rx-9070-hellhound/39.html

RoughNeck
2025-04-07, 09:13:36
Nur 150RPM mehr an der Nitro+ senken so stark die Vram Temperatur? Schon etwas strange. Als ob die Lüfter im Werkszustand kaum Druck erzeugen.

Meiner Meinung nach die falschen Lüfter.

Der_Korken
2025-04-07, 09:39:45
9700 Hellhound review 900 RPM mit dem "OC" Bios


https://www.techpowerup.com/review/powercolor-radeon-rx-9070-hellhound/39.html

Frechheit, die nonXT geht auf 650RPM im Quiet BIOS runter, die XT aber nur auf 850, obwohl das die gleichen Lüfter sein dürften.

dargo
2025-04-07, 10:20:58
Frechheit, die nonXT geht auf 650RPM im Quiet BIOS runter, die XT aber nur auf 850, obwohl das die gleichen Lüfter sein dürften.
Tjo... dank fehlendem MPT-Support werden wir wieder in die Steinzeit gebeamt wo ich früher einen Widerstand X in das Lüfterkabel integriert hatte damit die Drehzahl um X RPM runter geht. :freak:

Der_Korken
2025-04-07, 10:33:20
Tjo... dank fehlendem MPT-Support werden wir wieder in die Steinzeit gebeamt wo ich früher einen Widerstand X in das Lüfterkabel integriert hatte damit die Drehzahl um X RPM runter geht. :freak:

Ich hatte tatsächlich überlegt mir einen Adapter zu kaufen, um die GPU-Lüfter über einen normalen 4-pin-Stecker regeln zu können. Richtig toll ist das leider auch nicht, weil ich dann keine getrennten ZeroFan-Thresholds mehr habe, d.h. die Lüfter müssten permanent laufen.

dargo
2025-04-07, 10:43:05
Falscher Weg, du brauchst einfach nur eine Verlängerung in die du einen Widerstand integrierst.

Der_Korken
2025-04-07, 10:43:50
Sowas z.B.?

https://www.ebay.de/itm/123825004087

Zum selber löten hab ich kein Werkzeug und wahrscheinlich auch kein Skill :)

gedi
2025-04-07, 19:59:40
Zwecks dem Bios-Flashs würde mich eines interessieren, nämlich der umgekehrte Weg. Wenn jemand eine Karte mit Dual-Bios hat, dann sollte dies kein Problem darstellen. Was ich meine ist, 220w mit vollem Setup.

Welches Flash-Tool wurde bei Gurdi benutzt, weiß dies jemand? Ich würde es die Tage gerne selbst ausprobieren.

Der_Korken
2025-04-07, 20:05:04
Zwecks dem Bios-Flashs würde mich eines interessieren, nämlich der umgekehrte Weg. Wenn jemand eine Karte mit Dual-Bios hat, dann sollte dies kein Problem darstellen. Was ich meine ist, 220w mit vollem Setup.

Welchen Vorteil sollte das haben? Also abgesehen von niedrigeren Minimaldrehzahlen vielleicht ;D.

gedi
2025-04-07, 20:25:27
~150w, wenn man es will! Reicht dicke für manch Dinge, welche ich installiert habe.

Der_Korken
2025-04-07, 20:26:37
~150w, wenn man es will! Reicht dicke für manch Dinge, welche ich installiert habe.

Wäre es da nicht einfacher einen Framelimiter zu verwenden?

gedi
2025-04-07, 20:34:18
Wäre es da nicht einfacher einen Framelimiter zu verwenden?

Ich rede hier nicht von Spielen!

GerryB
2025-04-07, 20:53:55
Welches Flash-Tool wurde bei Gurdi benutzt, weiß dies jemand? Ich würde es die Tage gerne selbst ausprobieren.


Vermutlich dasselbe Tool wie bei Oese vom Luxx, AsProgrammer.
https://www.hardwareluxx.de/community/threads/offizieller-amd-rx-9070-xt-overclocking-und-modding-thread.1364991/#post-30739265
+
A BIOS flash is only possible via the hardware flasher CH341a. I used Version 1.7, but older versions are also possible with the 1.7v module.

https://www.techpowerup.com/forums/threads/guide-flashing-with-a-hardware-programmer.301007/
ausführliche Beschreibung zum CH341

Der_Korken
2025-04-07, 21:06:33
Wie lotet man den maximalen VRAM-Takt am besten aus? Ich habe mir memtest_vulkan (https://github.com/GpuZelenograd/memtest_vulkan) geladen und mal beobachtet, wie sich die Ergebnisse entwickeln. Bis 2740Mhz im Slider (anliegen tun immer ~14Mhz weniger) steigen die Werte, danach sinken sie wieder. Vor allem sinken sie dann stärker, je länger den Run läuft. Ich interpretiere das so, dass hier die Fehlerkorrektur des VRAM greift und dadurch die Leistung sinkt - so wurde es in den Reviews jedenfalls erklärt. Und je länger der Run geht, desto mehr heizt sich der Speicher auf, was dann zu minimal mehr Fehlern führt. Sobald die Leistung sinkt, geht auch die Memory Controller Load runter, die während eines "stabilen" Runs durchgängig >90% liegt.

Taugt das Tool oder weiß man schon, dass Spielelast den VRAM stärker fordert und früher Fehler wirft?

dargo
2025-04-07, 21:07:23
Sowas z.B.?

https://www.ebay.de/itm/123825004087

Zum selber löten hab ich kein Werkzeug und wahrscheinlich auch kein Skill :)
Jepp... genau sowas (ohne das Teil in der Mitte, da scheint schon was verlötet zu sein) hatte ich mir vor vielen Jahren mal zugelegt wo ich noch mit Widerständen bei der Graka hantieren musste. Eventuell habe ich das noch irgendwo rumliegen hier in einer Schublade.

btw.
Löten musst du übrigens nicht. Ich hatte damals einfach mit zwei Lüsterklemmen einen Widerstand dazwischen geschaltet. So ist man auch flexibler bei der richtigen Wahl vom Widerstandswert. :wink: So eine Verlängerung hatte mich damals 1,80€ inkl. Versand aus China gekostet. :freak:

GerryB
2025-04-07, 21:14:43
Taugt das Tool memtest vlk oder weiß man schon, dass Spielelast den VRAM stärker fordert und früher Fehler wirft?
reale Games werden sicherlich nicht h-lang 100% memorycontrollerload haben, da gibts auch Erholungsphasen
= safer als so ein synth. Test

bei den Luxxern skalieren die 3dMarks@Vram-OCen eher so wie beim MrH OCL-test
https://www.hardwareluxx.de/community/threads/07-04-2025-rtx-5090-amd-nvidia-intel-mrh-opencl-benchmark-rangliste.1302003/
aber,
die HoF-Highscorer nutzen dann in verschiedenen 3DMarks unterschiedliches Vram OCen
may be, der Vram+SOC frisst teilweise zu viel Watt und weniger ist dann ergiebiger für den Score, bzw.
niedriger = schärferes Timing, wo XYZ gut drauf reagiert

Schau Dir einfach mal die UL-Ergebnisse für SN vs FSU vs. SW an.
Da findest Du diesselben Leute mit unterschiedlichen Vramclocks.
Homex ist sicherlich etwas umstritten, aber der variiiert sehr stark,
um die beachtlichen Scores zu schaffen, glaube noch ohne EVC2.
(auf dem Balkon in Colorado bei <0°C)

https://www.3dmark.com/search#advanced?test=sw%20DX&cpuId=&gpuId=1702&gpuCount=1&gpuType=ALL&deviceType=ALL&storageModel=ALL&showRamDisks=false&memoryChannels=0&country=&scoreType=graphicsScore&hofMode=true&showInvalidResults=false&freeParams=&minGpuCoreClock=&maxGpuCoreClock=&minGpuMemClock=&maxGpuMemClock=&minCpuClock=&maxCpuClock=
https://www.3dmark.com/search#advanced?test=fs%20R&cpuId=&gpuId=1702&gpuCount=1&gpuType=ALL&deviceType=ALL&storageModel=ALL&showRamDisks=false&memoryChannels=0&country=&scoreType=graphicsScore&hofMode=true&showInvalidResults=false&freeParams=&minGpuCoreClock=&maxGpuCoreClock=&minGpuMemClock=&maxGpuMemClock=&minCpuClock=&maxCpuClock=
https://www.3dmark.com/search#advanced?test=sw%20P&cpuId=&gpuId=1702&gpuCount=1&gpuType=ALL&deviceType=ALL&storageModel=ALL&showRamDisks=false&memoryChannels=0&country=&scoreType=graphicsScore&hofMode=true&showInvalidResults=false&freeParams=&minGpuCoreClock=&maxGpuCoreClock=&minGpuMemClock=&maxGpuMemClock=&minCpuClock=&maxCpuClock=

Der_Korken
2025-04-07, 21:30:04
Stundenlang habe ich auch nicht getestet, da ich erstmal nur schnell ne Hausnummer ausloten wollte und zweitens geht bei dem Test die Performance runter, wenn man die Maus nicht durchgängig bewegt :freak:. Daher weiß ich nicht, ob ein afk-Durchlauf am Ende überhaupt was aussagt, wenn da offenbar irgendwelche Stromsparmodi o.ä. greifen.

GerryB
2025-04-07, 21:32:31
Jo, das mit dem Stromsparmodus ist blöd.

MrH geht schnell und dann halt 10-20MHz runter

Leider hat noch Keiner ne Übersicht für Timinggrenzen gemacht,
das würde es deutlich vereinfachen.

Bei 2800MHz+ würde ich sogar vgl. ob sich FT ggü. ST in Games lohnt.
meist wird wohl ST reichen

Gurdi bencht seine große AorusXT >=2850 aber nutzt 24/7 nur 2740.
(das ist nicht die geflashte Prime nonXT)

gedi
2025-04-07, 21:46:35
Vermutlich dasselbe Tool wie bei Oese vom Luxx, AsProgrammer.
https://www.hardwareluxx.de/community/threads/offizieller-amd-rx-9070-xt-overclocking-und-modding-thread.1364991/#post-30739265
+
A BIOS flash is only possible via the hardware flasher CH341a. I used Version 1.7, but older versions are also possible with the 1.7v module.

https://www.techpowerup.com/forums/threads/guide-flashing-with-a-hardware-programmer.301007/
ausführliche Beschreibung zum CH341

Ist mir zu schwammig. Ich frage hellm!

GerryB
2025-04-07, 21:48:42
???
Gurdi hats auch bestätigt.(siehe Anhang)


edit:
jetzt auch ne GB geflashed bei OCN
https://www.overclock.net/threads/amd-radeon-rx-9070-9070-xt-owners-thread.1815157/page-18?post_id=29452970&nested_view=1&sortby=oldest#post-29452970

gedi
2025-04-08, 17:52:11
Komisch, dass dies noch nicht diskutiert wurde: https://www.computerbase.de/artikel/grafikkarten/amd-radeon-rx-9070-xt-test-undervolting-powertarget.91939/

aufkrawall
2025-04-08, 17:57:19
Tjo... dank fehlendem MPT-Support werden wir wieder in die Steinzeit gebeamt wo ich früher einen Widerstand X in das Lüfterkabel integriert hatte damit die Drehzahl um X RPM runter geht. :freak:
Das wird wohl mit Lüfterregelung in Software/Firmware auf rpm-Basis und PWM-Signal auch nichts mehr bringen.

dargo
2025-04-08, 18:32:50
Komisch, dass dies noch nicht diskutiert wurde: https://www.computerbase.de/artikel/grafikkarten/amd-radeon-rx-9070-xt-test-undervolting-powertarget.91939/
Wo ist da die Neuigkeit für eine Diskussion? :tongue: Ich sehe da jedenfalls nichts Neues. Es bleibt dabei... will ich gleiche Performance wie Stock mit weniger Verbrauch haben wird es auf ca. 250W hinauslaufen müssen. Wenn ich natürlich keine absolute Gurke in der Silikonlotterie erwische.

aufkrawall
2025-04-08, 18:34:52
Klingt irgendwie fast wie non-XT + 10% PT. :freak:

gedi
2025-04-08, 19:05:13
Naja, mit ~260w+UV kann man trotzdem über default liegen. So schlecht finde ich die Ergebnisse nicht, zumal der Vram nicht übertaktet wurde.

GerryB
2025-04-08, 19:40:47
304x0,8=244

lilgefo~
2025-04-08, 20:09:39
Wie lotet man den maximalen VRAM-Takt am besten aus? Ich habe mir memtest_vulkan (https://github.com/GpuZelenograd/memtest_vulkan) geladen und mal beobachtet, wie sich die Ergebnisse entwickeln. Bis 2740Mhz im Slider (anliegen tun immer ~14Mhz weniger) steigen die Werte, danach sinken sie wieder. Vor allem sinken sie dann stärker, je länger den Run läuft. Ich interpretiere das so, dass hier die Fehlerkorrektur des VRAM greift und dadurch die Leistung sinkt - so wurde es in den Reviews jedenfalls erklärt. Und je länger der Run geht, desto mehr heizt sich der Speicher auf, was dann zu minimal mehr Fehlern führt. Sobald die Leistung sinkt, geht auch die Memory Controller Load runter, die während eines "stabilen" Runs durchgängig >90% liegt.

Taugt das Tool oder weiß man schon, dass Spielelast den VRAM stärker fordert und früher Fehler wirft?

Nein bei steigendem takt werden einfach die Latenzen hochgesetzt, wie bei normalem RAM auch. Das ist auch schon ewig so und den ram takt per afterburner auf max zu stellen ohne zu schauen wie sich die perf verhält (was du ja aber sinnvollerweise getan hast) ist i.d.R. kontraproduktiv.

Der_Korken
2025-04-08, 20:38:31
Nein bei steigendem takt werden einfach die Latenzen hochgesetzt, wie bei normalem RAM auch. Das ist auch schon ewig so und den ram takt per afterburner auf max zu stellen ohne zu schauen wie sich die perf verhält (was du ja aber sinnvollerweise getan hast) ist i.d.R. kontraproduktiv.

In dem Vulkan Memtest haben bei mir Latenzen keine Rolle gespielt. Die Performance ging wirklich durchgehend hoch bis zu Takt X und mit jedem weiteren 10Mhz-Step ging die Performance dann runter.

gedi
2025-04-08, 20:38:35
304x0,8=244

Ich habe die ~260w gewählt, da eine XT wohl eigentlich da landen sollte!

GerryB
2025-04-08, 20:48:59
Deine Custom!
340x0,8=272

260x1,2=312 wäre vllt. ne Hellhound (317)

die Referenz-MRSP haben aber nur 304W
damit sinds wie bei CB dann 244W

gedi
2025-04-08, 22:02:47
Was hat es damit zu tun, ob ich eine Cutom verbaut habe oder nicht? AFAIK waren ursprünglich 263w für ne XT angesetzt und ich vermute, die 302w wurden gewählt, um mit einer 5070ti zu kuscheln. Passt in etwa auch, da man sehr wohl, als auch sehr nahe dran ist.

GerryB
2025-04-08, 23:15:13
302w ???

Guckst Du Dir überhaupt irgendwelche offiziellen Zahlen an, oder würfelst Du nur.

304

Aber lass gut sein, wollte nur auf die Korrektheit achten.
Nicht das 0815 Leser auf falsche Ideen kommen.

In einer Hinsicht geb ich Dir recht, frühe Leaks sprachen von 260W.

dargo
2025-04-09, 12:48:06
Hat hier eigentlich jemand die XFX RX 9070 XT Swift? Bin am überlegen ob das auch eine Option für mich wäre. Mit 325mm ist die Karte noch nicht so extrem lang. Aber warum sind die XFX Karten diesmal so dick mit 3,5 Slots? Mir kommt der Aufbau ziemlich dick vor. Sind die Lüfter bei XFX jetzt dicker als üblich?

Ich habe gerade die Ergebnisse der XFX RX 9070 QuickSilver OC non XT @248W bei der Kühlperformance entdeckt.
https://www.techpowerup.com/review/powercolor-radeon-rx-9070-hellhound/39.html

Und die Daten gefallen mir echt gut (15°C Delta zwischen GPU-Hotspot und Edge bei ~250W sind echt gut), auch beim Vram. Da ich bei der XT ja ca. max. 250W anpeile könnte man das fast 1:1 auf die XT übertragen. Die Quicksilber ist allerdings mit 350mm Länge schon gutes Stück größer. Kann das jetzt schlecht einschätzen wie stark sich das auf die Kühlleistung auswirkt. Und ganz wichtig wäre mir auch zu wissen wie hoch die min. Drehzahl der Lüfter bei der XFX RX 9070 XT Swift ist.

Edit:
Habe jetzt endlich was gefunden. Die Kühlleistung der Swift mit 247W ist fast identisch. :up:
https://www.thefpsreview.com/2025/03/19/xfx-swift-amd-radeon-rx-9070-oc-white-triple-fan-gaming-edition-video-card-launch-review/6/

Fehlen nur noch die min. RPM bei der Swift XT. Bitte unbedingt mitteilen falls es jemand weiß!

dargo
2025-04-09, 17:41:45
Falls einem non XT User langweilig ist.

MRr6c68ZyI0

Mir wäre das zu viel Gefrickel, bin zu alt für so einen Quatsch. :tongue:

Edit:
Da mir gerade langweilig ist würde ich gerne noch eine Sache aufklären da mich die +~100€ für die XT immer wieder mal zum grübeln bringen. Wie groß ist eigentlich noch der Performanceunterschied zwischen einer 245W non XT die ich sagen wir mal um auf Nummer sicher zu gehen mit -50mV bei 250W betreibe vs. eine XT die auf 250W limitiert ist? Die XT dann natürlich auch mit -50mV. Einerseits hätte ich schon gerne die XT damit das Upgrade vs. RX 6800XT besser spürbar ist. Anderseits ist der Aufpreis wirklich kaum die Mehrleistung wert. :usad: Oder anders gefragt... sind mit einer 9070 non XT @250W gedeckelt mit -50mV +40% vs. 6800XT realistisch bei Raster oder zu hoch gegriffen?

Ok... die "grobe" Richtung habe ich. Hier hat CB die Sapphire Pure genommen und jeweils das Powerlimit auf die Referenzvorgaben von AMD reduziert. Sprich 304W für XT und 220W für nox XT. Dort ist die RX9070 non XT 36% schneller in 1440p als die RX 6800XT.
https://www.computerbase.de/artikel/grafikkarten/amd-radeon-rx-9070-xt-rx-9070-test.91578/seite-2#abschnitt_performancerating_mit_und_ohne_rt_in_2560__1440

Hier ist die 245W Sapphire Pure 6% schneller als die 220W Hellhound.
https://www.computerbase.de/artikel/grafikkarten/radeon-rx-9070-custom-design-test.91526/seite-2

Leider nur ein Spiel mit Metro Exodus gemessen. ;( Nunja... damit muss ich leben. Würde dann bedeuten, dass eine RX 9070 non XT @250W ca. 45% schneller ist als eine RX 6800XT. Mit -60-80mV eventuell knapp 50% schneller. Irgendwie habe ich große Zweifel zur RX 9070XT zu greifen die auf 250W gedeckelt werden soll. Oder wie seht ihr das?

GerryB
2025-04-09, 20:49:50
Knauser nicht so dolle und hol Dir ne gute XT, die bei 270W noch leise ist.
Wenn mans am Takt festmachen will, scheint ja mit UVen ab 2820MHZ aufwärts die Kurve wieder zu passen.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13738339&postcount=1166

Den Takt würde man dann gerne auch unter heavy RT haben wollen, wo ne nonXT stärker einbricht bei den Fps.
UE5 mit Hardware-Lumen muss schon ordentlich laufen (kannste mit der 6800xt vergessen)
auch in 2-4 Jahren
Leider hat PCGH Avowed nicht mit 9070(xt) getestet.(vllt. kann Raff mal noch nachlegen)

bei YT@stock:... leider nur 2k
https://www.youtube.com/watch?v=1X7M7_ZKs_U

ME:E ist sicherlich nicht der worst Case für RT-Performance, wird nur gern als Powervirus genutzt.
Da sieht die 6800xt in Reviews nur auf dem Papier gut aus wg. der sinnlosen 300W.

edit: z.Bsp.
Heute Vormittag gabs die MercuryXT OC RGB (Vaporchamber) für 745€ im Outlet.
Da dann ausmiezeln wie der Vramtakt skaliert für ein 270W-Setting.(-70mV natürlich auch)

dargo
2025-04-09, 20:51:53
Heavy RT geht mir am Anus vorbei. :) Über Heavy RT zerbreche ich mir den Kopf frühestens mit RDNA5 oder dem Nachfolger.

btw.
Die 250W als Abwärmelimit bleiben, ergo bitte nicht mit was anderem um die Ecke kommen.


ME:E ist sicherlich nicht der worst Case für RT-Performance, wird nur gern als Powervirus genutzt.
Da sieht die 6800xt in Reviews nur auf dem Papier gut aus wg. der sinnlosen 300W.
Hä? Was interessiert mich der worst case bei RT? Ich habe den zweiten Link doch nur genommen um zu sehen was 245W vs. 220W bei 9070 non XT an Mehrperformance bringen. :freak: Kann es sein, dass du meinem Gedankengang nicht ganz folgen kannst? :tongue:

GerryB
2025-04-09, 21:15:48
Muss ich?
Jede Gen dasselbe Theater bei Dir.
und
dann wunderst Du Dich das es nicht passt.

Also nehm meinen Post nicht so ernst, wenn Du Dir eeh wg. 20W ins Hemd machst.
Bleib bei WQHD und nonXT.(x)

mit heavy RT war nicht PT gemeint, also warum sollte man dann noch 2 Gens warten

(x) übrigens, Wer nicht flashen kann, kann auch ala Oese nur mit Shuntmod die 9070nonXT aufmufteln

dargo
2025-04-09, 21:22:32
Muss ich?
Jede Gen dasselbe Theater bei Dir.

Wenn du auf klar gestellte Anforderungen vom Fragesteller nicht eingehen willst/kannst dann antworte besser gar nicht. Schon meine RX 6800XT läuft mit weniger als 250W. In einem TLOU 2 sind es nicht mal 200W für die gesamte Karte.


mit heavy RT war nicht PT gemeint, also warum sollte man dann noch 2 Gens warten
Weil ich keinen Sinn bei Kosten/Nutzen dabei sehe. Wenn die Frames stark einbrechen dann ist es für mich sinnlos. Völlig egal ob die teure Frametime von RT oder PT kommt, oder sonstiger Grafikoption.

GerryB
2025-04-09, 21:26:04
olle Engine ohne RT, ... 200W TBP oder doch nur TGP ??? (200Wtbp = 170Wtgp oder 200Wtgp = 235Wtbp)

Vllt. sind Deine Fragen auch nur unzureichend/nicht zukunftsweisend.

Wenn die Graka wieder 4 Jahre reichen soll, dann ist Krümelkackerei falsch gespart.

Der_Korken
2025-04-09, 21:39:34
@dargo: Wenn man fix bei 250W vergleicht, dürfte der Vorsprung der XT deutlich unter 10% liegen. Im Grunde stimmt der kaum geringere Preis der nonXT dann auch, denn sie wird imho deutlich weniger von den 8CUs als vielmehr von dem begrenzten PT von der XT abgegrenzt. Mir sind die Zweifel an der XT die letzten Tage tatsächlich auch gekommen, allerdings hab ich mich optisch jetzt so auf die weiße Hellhound eingeschossen - die es nicht als nonXT gibt - dass ich leider zur XT "gezwungen" bin.

Von der 6800XT aus, ist es natürlich schwieriger, denn irgendwie sind 50% Mehrleistung mal eben 25% mehr als 40% Mehrleistung (auch wenn das mathematisch sehr fragwürdig ist :D). Ich sag mal so: Die Entwicklung bezüglich Effizienz und P/L hat sich die letzten Jahre so verlangsamt, dass du realitisch gesehen wieder mindestens 4 Jahre warten musst, bis es für die 9070(XT) das nächste Upgrade geben würde. Wenn das Geld nicht zu knapp bei dir ist, könnte man einfach sagen: Nimm die XT, dann ärgerst du dich höchstens einmalig darüber, dass du vielleicht nen Fuffi zuviel bezahlt hast für die Leistung. Mit der nonXT ärgerst du dich eventuell jahrelang doch zu klein gekauft zu haben und die Karte wegen der sunken cost fallacy nicht mit Verlust weiterverkaufen zu wollen.

aufkrawall
2025-04-09, 22:14:32
Die Entwicklung bezüglich Effizienz und P/L hat sich die letzten Jahre so verlangsamt, dass du realitisch gesehen wieder mindestens 4 Jahre warten musst, bis es für die 9070(XT) das nächste Upgrade geben würde.
Wieso das? UDNA wird neuer Node sein + anzunehmende große Verbesserungen bei RT/ML. Die neuen Konsolen in zweieinhalb Jahren werden dann bezüglich des Featuresets voraussichtlich deutlich moderner als RDNA4 sein.

Schrotti
2025-04-09, 22:49:05
Ich hab mir aus Neugier einfach mal die RX 9070 von Sapphire bestellt.

Im Zweitsys hängt am 4K Moni noch eine 3060 Ti mit 8 GB.

Der_Korken
2025-04-09, 23:54:26
Wieso das? UDNA wird neuer Node sein + anzunehmende große Verbesserungen bei RT/ML. Die neuen Konsolen in zweieinhalb Jahren werden dann bezüglich des Featuresets voraussichtlich deutlich moderner als RDNA4 sein.

Stellt sich immer die Frage nach dem Preis. Was nützen mir x% mehr Performance, wenn sie auch x% mehr kosten? Die ganze Stagnation ist kein einmaliger Effekt durch Corona, Mining oder AI-Hype. Die Zeiten, wo man alle zwei Jahre ein lohnenswertes Upgrade kaufen konnte sind lange vorbei und werden nie wieder zurückkommen.

Spring
2025-04-09, 23:56:57
Habe jetzt (auch wg der 3DC News + was ich bei Wiseman gesehen habe) auch mal -20% PT & -45mV / VRAM 2550 MHz in PUBG versucht (lief paar Stunden einwandfrei, das Game crasht recht schnell, wenn die Settings nicht passend sind):

FPS limit auf 130, FG an (AFMF 2.1) = 260fps @1440p
max Quali + 120% Renderscale:
Lüfter bleiben unter 1000 rpm mit max 240W.

Das ist schon nett :)

aufkrawall
2025-04-10, 00:30:55
Stellt sich immer die Frage nach dem Preis. Was nützen mir x% mehr Performance, wenn sie auch x% mehr kosten? Die ganze Stagnation ist kein einmaliger Effekt durch Corona, Mining oder AI-Hype. Die Zeiten, wo man alle zwei Jahre ein lohnenswertes Upgrade kaufen konnte sind lange vorbei und werden nie wieder zurückkommen.
Die Vorzeichen sind allerdings günstig wie selten:
-Node-Sprung
-mutmaßlich Highend Die-Size anstatt nur Midrange
-mutmaßlich großer Arch-Sprung

Der_Korken
2025-04-10, 01:00:10
Die Vorzeichen sind allerdings günstig wie selten:
-Node-Sprung
-mutmaßlich Highend Die-Size anstatt nur Midrange
-mutmaßlich großer Arch-Sprung

Neuer Node war bisher aber auch immer deutlich teurer. Die Kosten pro Transistoren sinken kaum noch, d.h. die Fläche wird immer teurer. Mutmaßlich großer Arch-Sprung muss nicht positiv sein. Wenn man CDNA und RDNA wieder fusioniert, könnte für die Gaming-Chips wieder unnötiger Ballast an Board sein oder die Arch Problemem mit der Auslastung bekommen, weil sie nicht so sehr auf Gaming-Workloads optimiert wurde, sondern auf Training, Inference, etc. Für die "Shut up and take my money"-Fraktion mag das alles spannend sein, aber als jemand der unterhalb von 3k€ einkauft, bin ich nicht sehr optimistisch, was die Zukunft von Gaming-GPUs angeht.

horn 12
2025-04-10, 07:25:20
@Dargo
@All

MorePowerTool für RDNA 4 verfügbar

https://www.igorslab.de/neue-version-des-morepowertools-mpt-und-finale-des-redbioseditors-rbe-zum-download/

Der_Korken
2025-04-10, 07:45:56
@Dargo
@All

MorePowerClockTool für RDNA 4 verfügbar

https://www.igorslab.de/neue-version-des-morepowertools-mpt-und-finale-des-redbioseditors-rbe-zum-download/

ftfy ;)

Damit schalten sich keine neuen Funktionen frei (min. RPM, ZeroFan-Limits, etc.)

dargo
2025-04-10, 07:51:48
@dargo: Wenn man fix bei 250W vergleicht, dürfte der Vorsprung der XT deutlich unter 10% liegen. Im Grunde stimmt der kaum geringere Preis der nonXT dann auch, denn sie wird imho deutlich weniger von den 8CUs als vielmehr von dem begrenzten PT von der XT abgegrenzt. Mir sind die Zweifel an der XT die letzten Tage tatsächlich auch gekommen, allerdings hab ich mich optisch jetzt so auf die weiße Hellhound eingeschossen - die es nicht als nonXT gibt - dass ich leider zur XT "gezwungen" bin.

Von der 6800XT aus, ist es natürlich schwieriger, denn irgendwie sind 50% Mehrleistung mal eben 25% mehr als 40% Mehrleistung (auch wenn das mathematisch sehr fragwürdig ist :D). Ich sag mal so: Die Entwicklung bezüglich Effizienz und P/L hat sich die letzten Jahre so verlangsamt, dass du realitisch gesehen wieder mindestens 4 Jahre warten musst, bis es für die 9070(XT) das nächste Upgrade geben würde. Wenn das Geld nicht zu knapp bei dir ist, könnte man einfach sagen: Nimm die XT, dann ärgerst du dich höchstens einmalig darüber, dass du vielleicht nen Fuffi zuviel bezahlt hast für die Leistung. Mit der nonXT ärgerst du dich eventuell jahrelang doch zu klein gekauft zu haben und die Karte wegen der sunken cost fallacy nicht mit Verlust weiterverkaufen zu wollen.
Geld ist nicht das Problem, solche Summen wie bei N48 sind Kleinigkeiten. Trotzdem achte ich bei PC-Hardware die relativ kurz (2-4 Jahre sind für mich kurz) verwendet wird auf gute P/L. :) Bei einem Monitor der dann ~10 Jahre steht bin ich nicht so geizig. :D Aber du hast da schon irgendwo recht... die Entwicklung ist dermaßen verlangsamt worden, dass man das dabei auch in die Betrachtung ziehen muss. Hmm... keine Ahnung. Wird wohl spontan entschieden. Noch sind mir die Preise von N48 nicht gut genug.

PS: bei dem Vergleich den ich anstelle mit den max. 250W bitte nicht vergessen, dass auch die XT dann -xmV abbekommt. Meinst du es bleibt bei unter 10% trotzdem zwischen einer non XT @250W mit -50mV und einer XT @250W mit -50mV? Die -50mV nehme ich nur als Beispiel falls ich eine Gurke erwische. Natürlich peile ich mehr an als "nur" -50mV. Was geht ist logischweise immer etwas Lotterie.

@Dargo
@All

MorePowerTool für RDNA 4 verfügbar

https://www.igorslab.de/neue-version-des-morepowertools-mpt-und-finale-des-redbioseditors-rbe-zum-download/
MCT ist nicht MPT. :) Aber dennoch würde mich interessieren was ich mit MCT alles bei RDNA4 einstellen kann? Vermutlich nicht das was ich möchte beim Ziel möglichst gute "Green Edition" zu erreichen.

Die Vorzeichen sind allerdings günstig wie selten:
-Node-Sprung
-mutmaßlich Highend Die-Size anstatt nur Midrange
-mutmaßlich großer Arch-Sprung
Jaja... jedes Mal dieser "Hype" vor einer neuen Gen und dann kommt die Ernüchterung. Wie schon gesagt wurde... neuer Node kostet auch mehr Geld und bringt u.U. keine Kostenersparnis. Zudem bringen mir größere Die-Sizes nicht unbedingt was wenn die dann weit von ~250W entfernt sind. Ich jedenfalls "scheiße" auf große Heizöfen. Mag jeder handhaben wie er möchte.

@Korken
Check mal bitte was du mit MCT bei der 9070XT alles ändern kannst weil mit RDNA2 sind schon paar für mich wichtige Parameter dabei. Mir sieht das aber eher danach aus, dass die Daten einfach nur vom Treiber übernommen werden, was dann gähn wäre.

Bismarx
2025-04-10, 10:50:46
Stellt sich immer die Frage nach dem Preis. Was nützen mir x% mehr Performance, wenn sie auch x% mehr kosten? Die ganze Stagnation ist kein einmaliger Effekt durch Corona, Mining oder AI-Hype. Die Zeiten, wo man alle zwei Jahre ein lohnenswertes Upgrade kaufen konnte sind lange vorbei und werden nie wieder zurückkommen.

Korrekt. Meine 9070 XT (Erscheinungsdatum 2025) hat grob eine 4x-höhere Leistung als meine alte Vega56 (Erscheinungsdatum 2017).

Die Vega56 liegt in der Bucht bei ca. 90 €. Damit hat sie im P/L die Nase derzeit weit vor der 9070XT.

Nun kostete die Vega 2018 noch ca. 700 €. Und Sommer 2019 dann nur noch 250 € im Abverkauf. Wenn die 9070 jetzt einen ähnlichen Kurs nähme...aber kaum zu erwarten.. ;)

Der_Korken
2025-04-10, 11:45:00
@Korken
Check mal bitte was du mit MCT bei der 9070XT alles ändern kannst weil mit RDNA2 sind schon paar für mich wichtige Parameter dabei. Mir sieht das aber eher danach aus, dass die Daten einfach nur vom Treiber übernommen werden, was dann gähn wäre.

Ich hatte es kurz gestartet, aber dort nur Settings gefunden, die man auch im Treibermenü einstellen konnte. Wie gesagt: Mindestdrehzahl, ZeroFan-Thresholds gab es dort nicht. Sowas wie Powertarget-Grenzen natürlich erst Recht nicht, sonst bräuchte keiner diese BIOS-Mods.

Korrekt. Meine 9070 XT (Erscheinungsdatum 2025) hat grob eine 4x-höhere Leistung als meine alte Vega56 (Erscheinungsdatum 2017).

Die Vega56 liegt in der Bucht bei ca. 90 €. Damit hat sie im P/L die Nase derzeit weit vor der 9070XT.

Nun kostete die Vega 2018 noch ca. 700 €. Und Sommer 2019 dann nur noch 250 € im Abverkauf. Wenn die 9070 jetzt einen ähnlichen Kurs nähme...aber kaum zu erwarten.. ;)

Der Standardpreis der V56 lag irgendwo so bei gut 400€ und die V64 bei 500€. Damit hat AMD die Preise der Konkurrenzmodelle (1070Ti und 1080) gematched. 2018, also ein Jahr nach Vega-Release war der erste Crypto-Peak. Das fing so Ende 2017 an, als Bitcoin von irgendwas mit 3K auf über 10K hochgeschossen ist. Durch den HBM waren besonders Vega-Karten hier sehr ertragreich zum Minen. Deine 700€ sind also ein Ausnahmepreis, so als würde ich sagen die 3080 hätte 2000€ gekostet (hat sie mitten im Crypto-Hype auch, aber das war nicht der angedachte Listenpreis) und die 4080 für 1300€ war deswegen ein Schnäppchen.

Edit: Meine 5700 nonXT habe ich vor 5 Jahren für 330€ gekauft und die hatte einen brauchbaren, leisen Kühler. Billigschmonz war glaube ich sogar für glatte 300 zu haben. Die 9070XT ist etwa dreimal so schnell, hätte also einen normierten Preis von 1000€. Bei 800€ wären das z.B. +25% P/L verteilt auf 5 Jahre. Rechnerisch müsste ich bei dem Tempo bis 2035 warten, um Karte bekommen, die ein doppelt so gutes P/L-Verhältnis hat wie meine 5700 aus 2020. DAS meine ich mit Stagnation.

GerryB
2025-04-10, 12:00:03
MCT wurde ursächlich erschaffen für Highscorer.
frisches tiny W11 + driver-only + MCT, um mit clean Windows zu benchen

vermutlich fehlen dann Relive-Funktionen, die man als Normalo 24/7 gerne hätte

Bismarx
2025-04-10, 16:06:10
[...] Die 9070XT ist etwa dreimal so schnell, hätte also einen normierten Preis von 1000€. Bei 800€ wären das z.B. +25% P/L verteilt auf 5 Jahre. Rechnerisch müsste ich bei dem Tempo bis 2035 warten, um Karte bekommen, die ein doppelt so gutes P/L-Verhältnis hat wie meine 5700 aus 2020. DAS meine ich mit Stagnation.

Naja, Du unterschlägst da aber auch noch ca. 25% Inflation über die letzten 5 Jahre. Dann sieht es nicht mehr ganz so übel aus. Allerdings sind wir von den guten alten Zeiten (Alles 2 Jahre Leistungsverdopplung zum annähernd gleichen Preis) natürlich Jahrzehnte entfernt...

dargo
2025-04-10, 16:59:52
Gibt es irgendwo eine gute Übersicht der min. Lüfterdrehzahlen bei den ganzen Customs N48 oder muss ich weiter einzeln den Forenusern das aus der Nase ziehen? :usad:

gedi
2025-04-10, 23:02:33
Gibt es irgendwo eine gute Übersicht der min. Lüfterdrehzahlen bei den ganzen Customs N48 oder muss ich weiter einzeln den Forenusern das aus der Nase ziehen? :usad:

Bei der Mercury sind es glaube ich 25% (anhand der sehr befremdlichen Originalkurve). Ich gebe dir morgen bescheid, wie weit man die Kurve dimmen kann.

dargo
2025-04-11, 07:16:33
Danke, aber mit RPM bitte und nicht Prozent. Mit letzterem kann ich nichts anfangen. Dennoch vermisse ich einen Sammelthread mit einer Übersicht wo alles relevante drin steht.

OgrEGT
2025-04-11, 09:00:28
https://www.computerbase.de/artikel/grafikkarten/powercolor-radeon-rx-9070-reaper-test.92045/
Da werden die gängigen Custom Karten der 9070nonXT untereinander verglichen...

dargo
2025-04-11, 11:17:29
Wo stehen da die min. Lüfterdrehzahlen? Übersehe ich was?