Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 9070 & 9070 XT Review-Thread
Seiten :
1
2
3
4
5
6
7
[
8]
9
10
Tesseract
2025-07-06, 13:03:51
bei gut implementiertem zero fan gehen die nicht ständig an und aus, da hat man quasi eine passive karte am desktop und eine aktive in spielen. leiser bekommt man ein system unter "2D" nicht.
dargo
2025-07-06, 13:07:48
bei gut implementiertem zero fan gehen die nicht ständig an und aus, da hat man quasi eine passive karte am desktop und eine aktive in spielen. leiser bekommt man ein system unter "2D" nicht.
Es gibt nicht nur die beiden Extremen Idle/Games. Korken bemängelt bsw. das Verhalten von ZeroFan @Youtube bei der Hellhound XT, ergo Teillast. Ich finde passive Kühllösungen einfach Grütze bei GPU/CPU. Mir wäre viel lieber wenn die Hersteller endlich bei den Graka-Lüftern mehr Hirnschmalz (eventuell limitiert hier aber auch der Kostendruck) investieren würden damit die Dinger in Idle auch mal runter auf 300-400RPM gehen. Das ist immer noch deutlich kühler als passiv und das hört kein Mensch aus einem geschlossenem Gehäuse raus bei den flachen Dingern.
RoughNeck
2025-07-06, 13:40:40
Zero RPM ist sinnvoll, um die Lüfter zu schonen. Ohne die Möglichkeit die Temperaturschwellen dafür anzupassen und - wie du schon sagst - niedrige Lüfterdrehzahlen zuzulassen, ist es aber einfach nicht zu Ende gedacht.
Lüfter schonen?
Das ist doch Quatsch. Ich habe bis heute keine vernünftige Zero RPM gesehen, die Asus 3080 TI die gestern hier hatte (WLP und Pads wurden erneuert) lässt die Lüfter so komisch anfahren dass es störend ist (mich würde es stören).
Die 4090 von Gainward welche meine bessere Hälfte hat, macht beim anlaufen der Lüfter auch komische Geräusche.
Meine 5090 von Gigabyte quietscht auch etwas wenn die Lüfter anlaufen. Meine Schwester hat eine Power Color 7800XT Hellhound Sakura schieß mich tot, die quietscht auch wenn die Lüfter anlaufen.
Einfach nur nein.
Gute Lüfter, vernünftige Lüfterkurve und fertig. Niemand braucht den pseudo passiv Mode, das haben die damals eingeführt da die schon damals keine Lüfterkurven einstellen konnten und haben es so verkauft um uns weiß zumachen es wäre dazu da um die Lüfter zu schonen.
Ist doch ähnlich wie bei den Autos mit der Start / Stop.
Ich finde passive Kühllösungen einfach Grütze bei GPU/CPU. Mir wäre viel lieber wenn die Hersteller endlich bei den Graka-Lüftern mehr Hirnschmalz (eventuell limitiert hier aber auch der Kostendruck) investieren würden damit die Dinger in Idle auch mal runter auf 300-400RPM gehen. Das ist immer noch deutlich kühler als passiv und das hört kein Mensch aus einem geschlossenem Gehäuse raus bei den flachen Dingern.
Richtig, ganz deiner Meinung.
Aber dann heißt es wieder, WIR sind eine besondere Zielgruppe, das ist nicht so leicht zu realisieren, bla, bla, bla.
Tesseract
2025-07-06, 14:07:41
Es gibt nicht nur die beiden Extremen Idle/Games.
ich habe mit keinem wort idle erwähnt. es gibt designs da geht unter sustained 60W oder so überhaupt nix an und selbst bei ~120W spikes erst nach 10+ sekunden. da kann man das system stundenlang normal passiv in 2D verwenden. es gibt keinen grund warum sich bei einem gigantischen kühlerklotz der hunderte watt abführen kann bei lächerlichen 15-40W im schnitt am desktop ein lüfter drehen sollte.
dargo
2025-07-06, 14:14:58
Ist doch ähnlich wie bei den Autos mit der Start / Stop.
X-D
Größter bullshit ever um Steuern zu sparen. :freak: Erste Aktion nach dem Motorstart diesen Mist deaktivieren, ist schon im Blut. Hätte ich Zugriff auf mein Fahrzeug würde ich den Mist dauerhaft deaktivieren. Aber dann meckert wahrscheinlich wieder der TÜV. :uclap:
Lurtz
2025-07-06, 15:03:09
bei gut implementiertem zero fan gehen die nicht ständig an und aus, da hat man quasi eine passive karte am desktop und eine aktive in spielen. leiser bekommt man ein system unter "2D" nicht.
Ich tabbe recht viel beim Spielen, klar geht er dann ständig an und aus.
Ex3cut3r
2025-07-06, 15:14:31
Nö, bei guten die Lüftern hört man gar nicht das die anlaufen. ASUS ist IHMO was das angeht der beste. Gigabyte der schlimmste.
dargo
2025-07-06, 15:33:39
Naja... die Anlaufgeschwindigkeit spielt auch eine große Rolle. Mit 500-600RPM anzulaufen und dabei ruhig zu bleiben ist kein Kunstwerk. Gibt es überhaupt eine Gigabyte Karte die mit 600RPM anläuft? :freak:
Tesseract
2025-07-06, 15:53:44
Ich tabbe recht viel beim Spielen, klar geht er dann ständig an und aus.
warum sollte er? falls das spiel beim tab komplett stoppt, was die meisten nicht tun, hat eine gute steuerung mehere minuten bzw. grad hysterese bevor die lüfter aus gehen. das müsste schon sehr exotisches verhalten sein und selbst wenn, wo ist das problem wenn der lüfter nach längerem idle statt auf minimale drehzahl auf null geht?
Daredevil
2025-07-06, 15:58:34
Das kommt imho halt auch einfach ganz simpel darauf an, wie viel Eisen auf der Karte klebt.
Je schwerer die Karte und je mehr Material in Form von Alu vorhanden ist, desto größer ist der Puffer, bis das der Lüfter überhaupt startet und ebenso nach Aufheizung, bis das der Lüfter ausgeht. Bei einer 1080ti mit Ref Kühlung ist dieses Verhalten deutlich ausgeprägter als bei z.B. einer 4090 Ref. Letztendlich kann aber auch ein Hersteller die Kurve versauen, da kann man auch einfach selber Hand anlegen.
dargo
2025-07-06, 16:02:08
@Daredevil
In der Theorie ja. In der Praxis sieht es oft nicht so aus da unterschiedliche Werte in die Hysterese reingekloppt werden. Anzahl der Heatpipes variiert, Vapor Chamber ja/nein usw. usf.
Tesseract
2025-07-06, 16:05:17
Das kommt imho halt auch einfach ganz simpel darauf an, wie viel Eisen auf der Karte klebt.
ja natürlich, aber da hat sich die letzten generationen viel getan und die tendenz geht zu höherem verbrauch unter volllast bei gleichzeitig besserem teillastverhalten und massivem einsatz von heatpipes. das ist heute ganz anders als vor 10 jahren.
G3cko
2025-07-06, 16:25:23
Lüfter die ständig ihre Lautstärke ändern finde ich nerviger als ein konstantes Rauschen. Dank WaKü ist das System ohnehin sehr leise.
Der_Korken
2025-07-06, 17:08:25
bei gut implementiertem zero fan gehen die nicht ständig an und aus, da hat man quasi eine passive karte am desktop und eine aktive in spielen. leiser bekommt man ein system unter "2D" nicht.
So ist es. Ich habe auch kein Problem mir die entsprechenden Schwellwerte selbst auszuloten, nur leider lässt AMD den Nutzer seit RDNA3 nicht mehr.
Lüfter schonen?
Das ist doch Quatsch.
Warum sollte das Quatsch sein? Bei mir kommt es durchaus vor, dass ich auf eine Stunde Zocken vier Stunden andere Sachen am Rechner mache, die die GPU kaum belasten. Wozu soll der Lüfter dann fünf Stunden laufen? Ob die Karte mit 35°C oder 45°C läuft, ist doch völlig wurscht.
Ich habe bis heute keine vernünftige Zero RPM gesehen, die Asus 3080 TI die gestern hier hatte (WLP und Pads wurden erneuert) lässt die Lüfter so komisch anfahren dass es störend ist (mich würde es stören).
Die 4090 von Gainward welche meine bessere Hälfte hat, macht beim anlaufen der Lüfter auch komische Geräusche.
Meine 5090 von Gigabyte quietscht auch etwas wenn die Lüfter anlaufen. Meine Schwester hat eine Power Color 7800XT Hellhound Sakura schieß mich tot, die quietscht auch wenn die Lüfter anlaufen.
Das ist dann Schlamperei der Hersteller und hat nichts mit dem Prinzip an sich zu tun. Außerdem sollen die Lüfter ja eben nicht ständig anlaufen, sondern idealerweise einmal am Anfang einer Gaming-Session. Da wird man ein kurzes "Quietschen" wohl gerade so verschmerzen können.
ja natürlich, aber da hat sich die letzten generationen viel getan und die tendenz geht zu höherem verbrauch unter volllast bei gleichzeitig besserem teillastverhalten und massivem einsatz von heatpipes. das ist heute ganz anders als vor 10 jahren.
Ich finde Teillast nach wie vor ausbaufähig. Ich hatte die 9070XT neulich mal ein paar Tage an einem 1440p-Monitor und da hat die Karte gerade im einstelligen Watt-Bereich geklebt. Da musste man sich schon wirklich verrenken, die Lüfter unter 2D mal kurz anzubekommen. In 4K sieht es ganz anders aus, wobei sich die Karte hier je nach Treiberversion und Tagesform anders verhält. Während ich das hier tippe, säuft die Karte knapp 30W, weil rechts dieser drehende (;D)-Smiley ist. Wenn ich runterscrolle und 15 Sekunden warte, dann geht sie auf 17W runter. Scrolle ich hoch, geht sie nach kurzer Zeit wieder auf 27W hoch. Das alles in 165Hz, denn bei 240Hz ist die 9070XT mit meinem aktuellen Treiber nicht unter 30W zu bekommen. Somit ist die Karte dann auch nicht viel besser als meine RX5700 mit Technik von 2019.
dargo
2025-07-06, 17:37:39
Warum sollte das Quatsch sein? Bei mir kommt es durchaus vor, dass ich auf eine Stunde Zocken vier Stunden andere Sachen am Rechner mache, die die GPU kaum belasten. Wozu soll der Lüfter dann fünf Stunden laufen? Ob die Karte mit 35°C oder 45°C läuft, ist doch völlig wurscht.
Jetzt muss ich aber eine blöde Frage stellen. Wenn du also nicht zockst und den Rechner für was anderes verwendest schaltest du jeden Lüfter in deinem System inkl. dem NT-Lüfter ab? Ansonsten bist du nicht konsequent genug. :) Also wenn schon ZeroFan, dann bitte für alles.
nairune
2025-07-06, 17:54:38
Also mit 3840x1600 @144Hz geht die Karte bei mir auf 5W runter.
Wenn man was macht, wird es mehr, ja, aber nur wenn dauerhaft 30W+ anliegen, springen die Lüfter überhaupt mal an. Bekomme ich aber gar nicht mit, weil die Asus-Lüfter langsam und geräuschlos andrehen (die auf der "made by AMD" vorher waren übrigens ähnlich gut). Kommt in der Praxis aber nur vor, wenn ich gerade programmiere und meine flutter app die ganze Zeit mit Animationen laufen lasse. Normales Browsen, Desktop-Zeug = dauerhaft Lüfter aus.
YouTube schaue ich zugegebenermaßen überhaupt nicht, muss ich mal schauen was sie da zieht.
Wenn jemand einen Fullcover-Block installieren will: Lohnt extrem. Temperaturen hier 36/47 °C für die GPU und 70°C für den Vram.
Edit: Raumtemperatur 25°C
Der_Korken
2025-07-06, 19:28:17
Jetzt muss ich aber eine blöde Frage stellen. Wenn du also nicht zockst und den Rechner für was anderes verwendest schaltest du jeden Lüfter in deinem System inkl. dem NT-Lüfter ab? Ansonsten bist du nicht konsequent genug. :) Also wenn schon ZeroFan, dann bitte für alles.
NT ist auch so schon semipassiv und hat zur Not 7 Jahre Garantie. Ansonsten habe ich nur Gehäuselüfter, die ich für 13€ das Stück gekauft habe und ohne großen Aufwand tauschen kann. Geht aber ein Graka-Lüfter kaputt, dann muss ich entweder hoffen, dass der Händler mir die auf Garantie umtauscht (d.h. wenns blöd läuft 6-8 Wochen warten auf ne neue Karte) oder irgendwo auf ebay einen exakt passenden China-Lüfter finden bzw. besser gleich alle drei tauschen, damit nicht einer schneller dreht als die anderen. Wenn ich die Originale auch in 5 Jahren noch für kleines Geld nachkaufen und tauschen könnte, wäre mir die Lebensdauer da auch wumpe.
Tesseract
2025-07-06, 19:30:45
Jetzt muss ich aber eine blöde Frage stellen. Wenn du also nicht zockst und den Rechner für was anderes verwendest schaltest du jeden Lüfter in deinem System inkl. dem NT-Lüfter ab? Ansonsten bist du nicht konsequent genug. :) Also wenn schon ZeroFan, dann bitte für alles.
ein grund warum man die lüfter der GPU abdrehen kann ist die zirkulation im gehäuse aber dafür reichen beim gehäuselüfter extrem niedrige drehzahlen. und high-end netzteile sind doch seit vielen jahren fast alle semi-passiv und drehen unter 150W, 200W etc. garnicht hoch. gibt auch bis 700W voll passiv. ich hab seit jahren keinen netzteillüfter mehr und in dem davor war er in 2D auch nie an.
CPU könnte man natürlich auch komplett abdrehen wenn man einen wuchtigen kühler drauf hat, das lassen die meisten boards aber nicht zu soweit ich weiß.
x-force
2025-07-06, 19:54:09
ich würde die lüfter immer langsam laufen lassen.
auf lange sicht macht es einen unterschied, ob die bauteile 50 oder 80 °delta t leiden müssen, auch wenn beides innerhalb der spec ist.
aufkrawall
2025-07-06, 20:11:10
Zero Fan funktioniert in der Praxis doch ständig wie Murks. Hat man ein Spiel im Hintergrund, was sich auf 30fps limitiert, fällt die GPU-Temperatur je nach Last mitunter so stark, dass die Lüfter ausgehen, nur um dann kurz später wieder anzugehen. Ähnliche Fälle gibt's auf manchen Webseiten mit viel Scrolling, Videowiedergabe mit qualitativen Filtern/Scalern usw. Da reißen dann auch Gehäuselüfter nicht mehr viel. Mit Glück nerven die Lüfter beim Anlaufen dann halt weniger als manche mit unnötig hoher Mindestdrehzahl für Idle, einen anderen "Vorteil" kann ich da nicht erkennen. CPU-Lüfter laufen schließlich auch locker fünf Jahre durch, ohne kaputt zu gehen oder zu nerven.
Daredevil
2025-07-06, 20:23:42
Und manche MacBooks laufen auch schon seit 10 Jahren, obwohl die Intel Kisten darin bei 100°C backen seit Tag 1. Habe gerade mal nachgeschaut, der MacStudio hat im Gegensatz zu den MacBooks kein "ZeroFan" und läuft bei 9w im Idle dauerhaft bei 1000rpm, zwei Lüfter sind hier verbaut. Das ist aber insofern auch völlig egal, weil man die Lüfter nicht hört, obwohl die Kiste auf dem Schreibtisch steht. Erst wenn man mit dem Ohr dran geht, hört man ein leises säuseln. ZeroFan fand ich hier allerdings auch konsequenter, nicht aufgrund der Lebenszeit der Lüfter, sondern weil die Kiste nicht unbedingt Staub sammeln muss. :D
dargo
2025-07-06, 20:31:18
NT ist auch so schon semipassiv und hat zur Not 7 Jahre Garantie. Ansonsten habe ich nur Gehäuselüfter, die ich für 13€ das Stück gekauft habe und ohne großen Aufwand tauschen kann. Geht aber ein Graka-Lüfter kaputt, dann muss ich entweder hoffen, dass der Händler mir die auf Garantie umtauscht (d.h. wenns blöd läuft 6-8 Wochen warten auf ne neue Karte) oder irgendwo auf ebay einen exakt passenden China-Lüfter finden bzw. besser gleich alle drei tauschen, damit nicht einer schneller dreht als die anderen. Wenn ich die Originale auch in 5 Jahren noch für kleines Geld nachkaufen und tauschen könnte, wäre mir die Lebensdauer da auch wumpe.
Ich verstehe deine Sorge. Aber was macht dich so sicher, dass die Grakalüfter mit vielen On/Off Wechsel länger leben als dauerhaft On (bei wenig Last dann eben sehr langsam drehend)?
Daredevil
2025-07-06, 20:46:55
KI sagt folgendes dazu:
- Ein dauerhaft langsam laufender Lüfter hat tendenziell weniger Verschleiß, da er gleichbleibende, niedrige Belastungen ausgesetzt ist und keine abrupten Start-Stopp-Zyklen durchläuft. Die kontinuierliche Bewegung hält das Lager geschmiert und reduziert die Staubansammlung im Stillstand.
- Ein Zero-Fan-Lüfter kann durch häufiges An- und Ausschalten minimal stärkerem Verschleiß ausgesetzt sein, insbesondere wenn die Lüfterkurve schlecht eingestellt ist und häufige Schaltvorgänge verursacht. Moderne Lager sind jedoch so robust, dass dieser Effekt oft vernachlässigbar ist.
Wir optimieren hier vermutlich wieder viel zu übertrieben. In der Realität ist es wahrscheinlich völlig egal. Spannend ist es aber dennoch. :)
Das Optimum ist dann wohl irgendwo in der Mitte. Eine großzügige Lüfterkurve die erst bei 1-2min Last o.ä. getriggert wird, weil genug Metall auf dem Chip klebt. Meine 3090 Ref hatte im Sommer öfter mal das Problem, dass die Lüfter bei YT Videos angesprungen ist, das war sehr Banane. Im Winter war das logischer weise kein Problem.
Der_Korken
2025-07-06, 22:06:15
Am allerliebsten wäre es mir, wenn ich auf dem Desktop komplett auf einer iGPU bleiben könnte. Dann brauch ich mir keine Gedanken machen, dass Youtube die Lüfter irgendwann an bekommt oder der VRAM nicht vernünftig runtertaktet. Leider haben alle AM5-Boards irgendwelche komischen Beschränkungen auf maximal 4K120, obwohl selbst der uralte DP1.4-Standard schon 4K240 erlauben würde mit DSC :rolleyes:.
Für Spiele, die die Last gelegentlich soweit droppen bzw. von vornherein gar nicht erst haben, kann man sich ein Profil anlegen, das identisch zum Default-Profil ist, nur mit ZeroFan aus. Dann bleiben die Lüfter an, solange das Spiel (auch im Hintergrund) läuft. Funktioniert natürlich nur unter Windows.
Ob ZeroFan jetzt gut für die Lebensdauer ist, hängt davon wieviel "Rotorzeit" ein einzelner Anlaufvorgang entspricht. Wenn ich nur eine Spielesession pro Bootvorgang habe, dann hätte ich mit ZeroFan sogar gar keine zusätzlichen Anläufe, sondern würde einfach 50-80% Rotorzeit sparen. Mit dem alten MorePowerTool hatte ich meine RX5700 in der Hinsicht wirklich optimal konfiguriert.
Tesseract
2025-07-06, 22:06:21
Zero Fan funktioniert in der Praxis doch ständig wie Murks. Hat man ein Spiel im Hintergrund, was sich auf 30fps limitiert, fällt die GPU-Temperatur je nach Last mitunter so stark, dass die Lüfter ausgehen, nur um dann kurz später wieder anzugehen. Ähnliche Fälle gibt's auf manchen Webseiten mit viel Scrolling, Videowiedergabe mit qualitativen Filtern/Scalern usw. Da reißen dann auch Gehäuselüfter nicht mehr viel. Mit Glück nerven die Lüfter beim Anlaufen dann halt weniger als manche mit unnötig hoher Mindestdrehzahl für Idle, einen anderen "Vorteil" kann ich da nicht erkennen. CPU-Lüfter laufen schließlich auch locker fünf Jahre durch, ohne kaputt zu gehen oder zu nerven.
die letzte halbe stunde oder so YT video, forum, reddit, news seiten scrollen usw. (https://i.imgur.com/rBKNp3I.jpeg)
bei mpv mit FSRCNNX 16x von 1080p auf 4k ist der verbrauch knapp 50W und die lüfter bleiben ebenfalls aus.
ich hab weder 80°C delta, noch springt random der lüfter an. spiel ist im hintergrund natürlich keines gelaufen. gehäuselüfter sind auf 600rpm.
Lurtz
2025-07-06, 22:27:59
warum sollte er? falls das spiel beim tab komplett stoppt, was die meisten nicht tun, hat eine gute steuerung mehere minuten bzw. grad hysterese bevor die lüfter aus gehen. das müsste schon sehr exotisches verhalten sein und selbst wenn, wo ist das problem wenn der lüfter nach längerem idle statt auf minimale drehzahl auf null geht?
Genau das war die Frage, ob das einen Unterschied bezüglich Langlebigkeit macht.
Nö, bei guten die Lüftern hört man gar nicht das die anlaufen. ASUS ist IHMO was das angeht der beste. Gigabyte der schlimmste.
Die Asus Prime (5070 Ti) ist da mit Standard-Lüfterkurve sogar richtig schlimm. Der Fan-Controller merkt offenbar zu spät, dass die Lüfter anlaufen (oder die Lüfter laufen generell zu spät an), so dass sie massiv hochdrehen nach Zero Fan.
Zero Fan funktioniert in der Praxis doch ständig wie Murks. Hat man ein Spiel im Hintergrund, was sich auf 30fps limitiert, fällt die GPU-Temperatur je nach Last mitunter so stark, dass die Lüfter ausgehen, nur um dann kurz später wieder anzugehen. Ähnliche Fälle gibt's auf manchen Webseiten mit viel Scrolling, Videowiedergabe mit qualitativen Filtern/Scalern usw. Da reißen dann auch Gehäuselüfter nicht mehr viel. Mit Glück nerven die Lüfter beim Anlaufen dann halt weniger als manche mit unnötig hoher Mindestdrehzahl für Idle, einen anderen "Vorteil" kann ich da nicht erkennen. CPU-Lüfter laufen schließlich auch locker fünf Jahre durch, ohne kaputt zu gehen oder zu nerven.
Gibt genug Spiele die bspw. im Menü ähnlich viel wie auf dem Desktop verbrauchen. Dann gehen sie auch ständig an/aus.
aufkrawall
2025-07-06, 22:47:24
Die Asus Prime (5070 Ti) ist da mit Standard-Lüfterkurve sogar richtig schlimm. Der Fan-Controller merkt offenbar zu spät, dass die Lüfter anlaufen (oder die Lüfter laufen generell zu spät an), so dass sie massiv hochdrehen nach Zero Fan.
Ist bei der 5070 auch so. Verkehrte Welt, sonst war das meist mit Radeon übler, aber die 9070 Prime hatte das afair überhaupt nicht.
Komischerweise hilft der Firmware-Modus in AB hier auch nicht. Nutze deshalb die reguläre Steuerung mit 700rpm min, was mich mit den Prime-Lüftern zum Glück noch nicht nervt.
Lurtz
2025-07-06, 22:59:56
Ja, komische Sache. Hatte mal mit jemandem bei Reddit geschrieben, der das gleiche Problem hatte. Der hatte ein neueres BIOS, also wurde es damit zumindest nicht gefixt.
Hat mich zuerst ziemlich irritiert, aber mit angepasster Lüfterkurve gehts.
Ex3cut3r
2025-07-06, 23:23:23
Dann wurde bei der Prime mal wieder wieder gespart, die TUF ist um Welten besser.
aufkrawall
2025-07-06, 23:49:29
Das wird reiner Zufall sein, bei der Radeon war es ja besser und die konnte auch 600rpm Minimum anstatt 700. Die TUF 3060 hatte afair auch irgendwas mit 900rpm Minimum oder so, das wird jede Gen, inkls. potenzieller Fuck-Ups, neu ausgewürfelt. Siehe auch Powercolor Hellhound mit der niedrigeren Minimaldrehzahl bei der non-XT...
nairune
2025-07-07, 01:05:46
Na wenn du sagst, die 9070 Prime hat 600 min, dann ist das bei Asus auch so: Die XT hat nämlich 700 min rpm.
x-force
2025-07-07, 01:53:03
In der Realität ist es wahrscheinlich völlig egal.
denke ich nicht. spin ups reduzieren bei festplatten elementar die lebenszeit und da spielt staub keine rolle.
G3cko
2025-07-07, 06:37:27
Schon Mal ein Lüfter kaputt gegangen? Also in 25 Jahren ist es bei mir vielleicht einer und ich habe mittlerweile vergessen, welcher es war. Dafür habe iche eine ganze Schublade voller Lüfter Kategorie "könnte man ja noch einmal gebrauchen."
GerryB
2025-07-07, 08:43:54
@GerryB
Bei den Werten von techpowerup sieht man auch sehr schön wie laut die XFX-Lüfter tatsächlich sind. Trotz nur 200RPM mehr sind die Lüfter um ganze 10dbA lauter als bei der Nitro+. Wenn mich nicht alles täuscht bedeuten +3dbA bereits doppelt so laut.
kann sein, aber Keiner sollte das 24/7 so lassen
Die Mercury versucht ja dank dummer Voreinstellung den Vram@84°C zu halten. Das ist totaler Blödsinn und in dem Fall besonders schwierig, weil ...
"The GDDR6 memory chips are made by Hynix"
Klingt blöd, aber Jemand der es besonders leise haben will, sollte mehrere Grakas bestellen und die mit Samsung behalten.
(sofern man Das nicht beim Händler erfragen kann)
Daredevil
2025-07-07, 09:08:05
Schon Mal ein Lüfter kaputt gegangen? Also in 25 Jahren ist es bei mir vielleicht einer und ich habe mittlerweile vergessen, welcher es war. Dafür habe iche eine ganze Schublade voller Lüfter Kategorie "könnte man ja noch einmal gebrauchen."
Tatsächlich ja, mehrere sogar.
Die Radeon VII war zwar für Pro User beworben, nach 1 1/2 Jahren waren 4 meiner 6 Karten allerdings auffällig mit lautem Lüfterschleifen, auch bei niedrigen Drehzahlen.
Kontext: Die Babys liefen 24/7 unter Vollast bei 2500-4000rpm.
https://s1.directupload.eu/images/250707/pynoyxtk.jpg
DrFreaK666
2025-07-10, 01:14:04
-1-rWNgZKRU
dargo
2025-07-11, 07:55:24
Hat hier jemand die Sapphire Pulse RX 9070 non XT im Einsatz? Die erreicht mittlerweile 616€ und macht mich neugierig. :D Mich würde mal interessieren ob der Kühler auch für 242W reicht (250W gehen ja nicht wegen max. +10% PT) und dabei genauso extrem leise bleibt wie CB bei 220W gemessen hat.
https://www.computerbase.de/artikel/grafikkarten/radeon-rx-9070-custom-design-test.91526/seite-2#abschnitt_lautstaerke_unter_last
Im Prinzip wären es dann nur 22 Wattchen mehr. Bin immer wieder erstaunt wie gut der Kühler, und vor allem die Lüfter, bei der Pulse sind. Die non XT misst ja nur 28cm und hat sogar nur 4 Heatpipes. Trotzdem nur 70°C GPU-Hotspot bei 1.065RPM Lüfter. Und 1.065RPM bei Pulse sind genauso leise wie 700RPM bei der Hellhound.
Disco_STFU
2025-07-11, 08:33:26
Nix da, JETZT wartest bis Herbst/Winter! :P:tongue:
dargo
2025-07-11, 08:53:59
Das sowieso (also frühestens Mitte August), ich kann mir trotzdem schon mal die nötigen Informationen holen. ;)
Mich macht die 9070XT immer wieder etwas unsicher da ich wie schon bekannt bei N48 allgemein ~250W anpeile. Wenn beide dann nur noch ~5-7% trennen ist die XT irgendwie kompletter Humbug. Ich habe das mal in einem Spiel mit der RX 6800XT mit 4k + balanced Upscaling getestet.
1260p Input = 71fps
1200p Input = 75fps
Kein Schwein sieht einen Unterschied in der Bildqualität auf dem 4k 27" OLED mit 166ppi und schon hast du die fehlenden ~6% aufgeholt. :ulol: Und mal ehrlich... wenn was mit 9070 @250W nicht spielbar ist trifft das genauso auf die 9070XT @250W zu. Die non XT wird für mich halt interessant erst wenn eine Pulse oder Pure Richtung ~600€ geht.
konkretor
2025-07-11, 10:47:09
Test 9070 GRE
https://www.computerbase.de/artikel/grafikkarten/amd-radeon-rx-9070-gre-china-test.93409/
https://www.pcgameshardware.de/Radeon-RX-9070-GRE-Grafikkarte-281249/Tests/Review-Benchmarks-Details-Performance-1474877
Der_Korken
2025-07-11, 10:49:36
CB hat zusammen mit PCGH die China-9070 aka 9070GRE getestet:
https://www.computerbase.de/artikel/grafikkarten/amd-radeon-rx-9070-gre-china-test.93409/
https://www.pcgameshardware.de/Radeon-RX-9070-GRE-Grafikkarte-281249/Tests/Review-Benchmarks-Details-Performance-1474877/
Grob zusammengefasst, liegt sie leistungstechnisch da, wo man sie erwarten würde, aber in 4K und/oder Raytracing fällt sie immer stärker hinter die großen Modelle zurück, weil die 12GB Speicher limitieren. Dass die 9600XT mehr Speicher hat und dadurch dieser Bruch im Lineup ist, ist ebenfalls unschön.
Ich persönlich vermisse diese Karte nicht auf dem europäischen Markt.
Ein saftiges 41-Minuten-Schnitzel für alle, die nicht lesen möchten. =)
5OkJ0RAOU6M
MfG
Raff
Exxtreme
2025-07-11, 10:58:11
Joa, die Karte ist an ganz falschen Stellen beschnitten und frisst auch noch viel Strom. Und ist mit ~450 EUR auch relativ teuer wenn man bedenkt, dass sie mti dem beschnittenen RAM nicht sehr zukunftsfähig sein dürfte.
dargo
2025-07-11, 11:03:33
Joa, die Karte ist an ganz falschen Stellen beschnitten und frisst auch noch viel Strom.
Der Stromverbrauch ist wirklich etwas enttäuschend. Aber auch kein Wunder wenn man sich die Frequenzen anschaut. Das ist eine beschnitte 9070XT die von AMD ebenfalls gekeult wird. Entsprechend fällt der Verbrauch zu hoch aus. AMD hätte das Ding imo bei 180W bremsen sollen.
PS: und ich meine damit nicht die extrem hohen Frequenzen wo der Vram ausgeht.
PPS: Vram Hotspot bei der Pulse mit lächerlichen 920RPM nur bei 81°C? Das kann eigentlich nur Samsung sein. :tongue:
Hakim
2025-07-11, 13:10:37
16GB hätten der Karte deutlich besser gepasst.
DrFreaK666
2025-07-11, 14:28:58
Die GRE ist nix. Mal schauen wo der Preis am Ende landet
mczak
2025-07-11, 16:40:11
Joa, die Karte ist an ganz falschen Stellen beschnitten und frisst auch noch viel Strom.
Finde eigentlich das mit dem Stromverbrauch ist ganz ok. Die 7900 GRE lag bei der Effizienz hinter der 7900 XT, man schlägt hier aber die 9070 XT klar (jedenfalls solange der GRE nicht der Speicher ausgeht), weil die Karte eben nicht ganz so hoch geprügelt wurde - wenn auch natürlich mehr als die 9070, aber man liegt immer noch auf einem ganz akzeptablen Niveau.
Technisch gesehen finde ich es interessant wieviel man da aus der doch sehr geringen Speicherbandbreite herausholt (mutig von AMD dass man beim Speicher auch noch zu "Ausschussware" greift - selbst eine popelige RTX 5050 setzt auf 20 gbps Chips).
Bei früheren rdna (und insbesondere auch gcn) Chips hat man ja des öfteren gemunkelt die würden nicht so sparsam mit der Speicherbandbreite umgehen - aber bei rdna 4 ist davon definitiv nichts mehr zu sehen. Eine 9070 hat 50% mehr Speicherbandbreite (und auch 33% mehr L3), eine 5070 sogar 55% mehr (bei gleich grossem Cache) (auch wenn es nichts neues ist dass Blackwell mit der höheren Bandbreite im Vergleich zu Ada nicht gerade viel anzufangen weiss), selbst die RTX 4070 / Super hatten da 17% mehr zu bieten. Man verliert natürlich schon Performance aber das hält sich doch sehr in Grenzen.
OgrEGT
2025-07-11, 19:41:25
Das sowieso (also frühestens Mitte August), ich kann mir trotzdem schon mal die nötigen Informationen holen. ;)
Mich macht die 9070XT immer wieder etwas unsicher da ich wie schon bekannt bei N48 allgemein ~250W anpeile. Wenn beide dann nur noch ~5-7% trennen ist die XT irgendwie kompletter Humbug. Ich habe das mal in einem Spiel mit der RX 6800XT mit 4k + balanced Upscaling getestet.
1260p Input = 71fps
1200p Input = 75fps
Kein Schwein sieht einen Unterschied in der Bildqualität auf dem 4k 27" OLED mit 166ppi und schon hast du die fehlenden ~6% aufgeholt. :ulol: Und mal ehrlich... wenn was mit 9070 @250W nicht spielbar ist trifft das genauso auf die 9070XT @250W zu. Die non XT wird für mich halt interessant erst wenn eine Pulse oder Pure Richtung ~600€ geht.
Die 9070XT kannst Du ja auf 250W laufen lassen, hast aber wenn es doch vielleicht wirklich mal notwenig werden würde noch Headroom für noch etwas mehr Leistung... (PT80 - 243W vs PT100 - 304W +3-11%)
https://www.computerbase.de/artikel/grafikkarten/amd-radeon-rx-9070-xt-test-undervolting-powertarget.91939/seite-2
dargo
2025-07-11, 20:01:04
304W sind für mich völlig inakzeptabel. Ergo stehen die gar nicht zur Debatte. Mich interessiert praktisch nur 250W XT vs. 250W non XT. Und bei den AIBs die für mich in Frage kommen trennen beide ca. 80€. Ziemlich unsexy die XT dann für magere +5-7%.
Edit:
Deinen verlinkten CB-Test finde ich trotzdem sehr aufschlussreich, danke dafür.
Dort heißt es die 9070XT liefert mit 80% PT bzw. 243W 96% der Stock XT. Das bedeutet, dass es nach diesem Test hier im Schnitt bei Raster und 4k 51,84fps von 54fps kommend sind.
https://www.computerbase.de/artikel/grafikkarten/amd-radeon-rx-9070-xt-rx-9070-test.91578/seite-2#abschnitt_performancerating_mit_und_ohne_rt_in_3840__2160
Von CB weiß ich auch, dass eine 9070 non XT von 220W auf 245W um 6% zulegt. Pulse 220W vs. Pure 245W.
https://www.computerbase.de/artikel/grafikkarten/radeon-rx-9070-custom-design-test.91526/seite-2#abschnitt_fps_und_frametimes_in_uhd
Ergo 50,24fps von 47,4fps kommend. Irgendwie erscheint mir die 9070 XT unter diesen Aspekten halt verdammt sinnfrei. :freak: Meine zuvor grob geschätzten +5-7% sind offenbar noch viel zu optimistisch gewesen.
OgrEGT
2025-07-11, 20:37:01
Ja klar... Perf/W ist die non XT klar besser als die XT
https://www.igorslab.de/en/amd-radeon-9070xt-and-9070-in-the-test-clock-energy-with-crowbar-and-at-least-some-reason-as-a-counterpoint/5/
dargo
2025-07-11, 21:01:50
Ich beziehe mich da nicht mal auf Perf/W sondern eher auf Perf/Euro bei gleichen Powerbudget von 250W. Der Aufpreis der XT ist dann bei +3-4% Performance einfach nur lächerlich. Die XT macht imo nur Sinn wenn man sie keulen möchte bzw. 300+W Powerbudgets akzeptiert. Also solche Scherze wie 330-340W. Wenn ich das so betrachte tendiere ich immer mehr zu einer Sapphire Pulse non XT die ich dann mit 242W betreibe. Mal sehen ob die schon in 4 Wochen für 600€ zu bekommen ist.
nairune
2025-07-12, 00:53:46
Edit:
Deinen verlinkten CB-Test finde ich trotzdem sehr aufschlussreich, danke dafür.
Dort heißt es die 9070XT liefert mit 80% PT bzw. 243W 96% der Stock XT. Das bedeutet, dass es nach diesem Test hier im Schnitt bei Raster und 4k 51,84fps von 54fps kommend sind.
https://www.computerbase.de/artikel/grafikkarten/amd-radeon-rx-9070-xt-rx-9070-test.91578/seite-2#abschnitt_performancerating_mit_und_ohne_rt_in_3840__2160
Von CB weiß ich auch, dass eine 9070 non XT von 220W auf 245W um 6% zulegt. Pulse 220W vs. Pure 245W.
https://www.computerbase.de/artikel/grafikkarten/radeon-rx-9070-custom-design-test.91526/seite-2#abschnitt_fps_und_frametimes_in_uhd
Ergo 50,24fps von 47,4fps kommend. Irgendwie erscheint mir die 9070 XT unter diesen Aspekten halt verdammt sinnfrei. :freak: Meine zuvor grob geschätzten +5-7% sind offenbar noch viel zu optimistisch gewesen.
Das ist aber eine Milchmädchenrechnung:
Beim Vergleich der 9070 Modelle wurde nur ein Spiel getestet (Metro) und das ist möglicherweise eines, das gut skaliert, wenn man sich die Zahlen anschaut.
Zum Vergleich hast du die avg. Ergebnisse der XT aus 4 Spielen herangezogen, bei denen zwei "gut" skalierten (6-7% bei stock vs 80% PT) und zwei schlecht (0-2%), siehe Einzelergebnisse.
In den "großen" Haupttests gibt es Metro leider nicht, aber der Unterschied non-XT zu XT schwankt zwischen 7 und 19%.
Also hier kann man schlecht alles zusammenwürfeln.
Am Ende ist der Unterschied sicher nicht riesig, aber höchstwahrscheinlich mehr als die 2%, die du jetzt angenommen hast.
Wenn man ein "recht gut skalierendes" (hypothetisches, da die Tests bei CB alle unterschiedliche Spiele verwenden) Spiel heranzieht mit 16% zwischen non-XT und XT und 6% zwischen stock und 80% PT, sowie +6% für das angehobene non-XT Powerlimit, dann steht es 89% für die 247W non-XT vs 94% für die 243W XT, im Vergleich zur stock-XT (100%).
Was bezüglich der XT übrigens exakt mit meinen 3D-Mark-Ergebnissen übereinstimmt - und mit 222W habe ich immer noch mehr Leistung als die 247W non-XT. Wobei das knapp ist, da müsste man schon mit dem selben Spiel exakt nachprüfen.
Also die 640€ XT würde ich immer wieder nehmen, vernehme keinen Mucks beim Zocken (y)
dargo
2025-07-12, 08:19:07
Das ist aber eine Milchmädchenrechnung:
Beim Vergleich der 9070 Modelle wurde nur ein Spiel getestet (Metro) und das ist möglicherweise eines, das gut skaliert, wenn man sich die Zahlen anschaut.
Zum Vergleich hast du die avg. Ergebnisse der XT aus 4 Spielen herangezogen, bei denen zwei "gut" skalierten (6-7% bei stock vs 80% PT) und zwei schlecht (0-2%), siehe Einzelergebnisse.
Das ist zwar richtig... aber bei +11% Power (220W vs. 245W) halte ich +6% Performance absolut für realistisch. Ob es nachher im Schnitt +4-6% sind wayne. Auch ob es nachher +3% oder +5-7% zwischen 250W non XT und 250W XT sind... geschenkt. Wie ich schon einmal gesagt habe... das sind Peanuts die ich spielend durch 60-70p weniger Pixel beim Upscaling ausgleichen kann.
btw.
Wenn ich Starfield und FF16 rausnehme sind es keine 96% mehr sondern 94%, was noch stärker zugunsten non XT spricht.
Ach... und noch was (wo wir schon Korinthenkackerei betreiben :))... selbst wenn ich alle Ergebnisse die mit weniger als +12% bei XT vs. non XT skalieren rausnehme ändert sich nahezu gar nichts.
https://i.postimg.cc/wRJQFjHk/4k-CB.jpg (https://postimg.cc/wRJQFjHk)
Und wenn ich ganz ehrlich zu mir bin sind die 4k Ergebnisse auch Murks weil ich nichts im nativen 4k spiele (außer vielleicht FH5). Ganz einfach weil die Frames zu niedrig sind. Ergo ist das hier praxisrelevanter.
https://i.postimg.cc/LJRFtqRN/1440p-CB.jpg (https://postimg.cc/LJRFtqRN)
Aber das will ich jetzt nicht überbewerten da CB die Pixellast je nach Game mischt. Gleicht sich aber im Schnitt alles wieder aus da CB auch oft Native AA beim Upscaling nimmt. Ergo kommt hier der Upscaling Overhead drauf.
https://www.computerbase.de/artikel/grafikkarten/amd-radeon-rx-9070-xt-rx-9070-test.91578/#abschnitt_testsystem_und_testmethodik
Wenn ich das trotzdem auf die Ergebnisse von 1440p übertrage heißt es 85,6fps (XT @243W) vs. 85,3fps (non XT @245W). Wow... bin beeindruckt von der XT. :freak: Lass es nachher +3% für die XT sein, wie gesagt... solche Pillepalle juckt mich nicht. :)
Am Ende ist der Unterschied sicher nicht riesig, aber höchstwahrscheinlich mehr als die 2%, die du jetzt angenommen hast.
Angenommen hatte ich zuerst 5-7%, ausgerechnet anhand der CB-Beispiele dann 3%.
Wenn man ein "recht gut skalierendes" (hypothetisches, da die Tests bei CB alle unterschiedliche Spiele verwenden) Spiel heranzieht mit 16% zwischen non-XT und XT und 6% zwischen stock und 80% PT, sowie +6% für das angehobene non-XT Powerlimit, dann steht es 89% für die 247W non-XT vs 94% für die 243W XT, im Vergleich zur stock-XT (100%).
Was bezüglich der XT übrigens exakt mit meinen 3D-Mark-Ergebnissen übereinstimmt - und mit 222W habe ich immer noch mehr Leistung als die 247W non-XT. Wobei das knapp ist, da müsste man schon mit dem selben Spiel exakt nachprüfen.
Natürlich wird die XT eingebremst immer minimal besser rauskommen. Die kostet aber auch entsprechend mehr. ;) Und ich sehe da einfach den Mehrwert nicht wirklich. Beim gleichen Preis (oder bissel mehr) nehme ich logischerweise die XT und bremse sie für mich passend ein.
Aktuell sieht das bei der Pulse so aus, jeweils bester Preis:
Pulse non XT = 614,69€
Pulse XT = 718,99€
Da lohnt die XT hinten und vorne nicht. Selbst die 699€ (manchmal 694€) der Hellhound XT sehen gegen die Pulse non XT nicht gut aus. Das würde nur ok aussehen wenn man die non XT bei 220W belässt und die XT bei 304W.
Also die 640€ XT würde ich immer wieder nehmen, vernehme keinen Mucks beim Zocken (y)
Gibts nicht mehr. Du meinst sicherlich die Prime. Und wenn es sowas regulär (gerne auch mit Cashback) irgendwann gibt wird die non XT sicherlich dann bei ca. 560-570€ liegen.
btw.
Wenn non XT dann ist die Hellhound non XT bei mir (neben der Pulse non XT als Favorit) noch nicht ganz aus dem Rennen. Gestern noch hätte ich die Hellhound non XT für 605€ bekommen können.
Und die Daten von CB gefallen mir bei dieser Karte auch ganz gut.
OC-Bios = 227W (max. 250W möglich)
GPU-Hotspot = 77°C
Vram-Hotspot = 87°C
Lüfter = 900RPM bei 29dbA
min. RPM = 600
Die Lüfter würde ich eh mit max. 1.100RPM (eventuell sogar 1.200RPM, muss ich erst hören) laufen lassen, das dürfte also noch gut thermisch und akustisch passen.
horn 12
2025-07-12, 10:17:37
@Dargo
9070 und 9070XT fallen ins Bodenlose
Pulse OHNE XT 579 Euro
aber auch die anderen Karten
https://www.onekillerprice.it/search.asp?testoRicerca=RX+9070&search_off=&search_nov=&marca=&search_statoprod=&amount_min=&amount_max=&ordinamento=#ricerca
Ob da ein REFRESH von AMD kommt im Spätherbst mit mehr Speicher und höherem Takt
und dann in einem Jahr UDNA so gegen November 2026
dargo
2025-07-12, 10:34:47
@Dargo
9070 und 9070XT fallen ins Bodenlose
Pulse OHNE XT 579 Euro
aber auch die anderen Karten
https://www.onekillerprice.it/search.asp?testoRicerca=RX+9070&search_off=&search_nov=&marca=&search_statoprod=&amount_min=&amount_max=&ordinamento=#ricerca
Sehr schön... also ist noch genug Luft für DE da. (y) 580€ für die Pulse non XT finde ich super. :up:
PS: bei euch kostet sogar die Pure non XT nur 609€ aktuell. :freak:
horn 12
2025-07-12, 10:43:09
Nun, bei Euch müssten 560 Euro drinnen sein, 19% gegen 22% Mwst.
Aber so gute Karten für diese Leistung gibt es seit Jahren (5) nicht mehr!
dargo
2025-07-12, 10:51:22
Nun, bei Euch müssten 560 Euro drinnen sein, 19% gegen 22% Mwst.
Jo... und jetzt stelle dir mal vor das Ding landet bei Galaxus zu diesem Preis. Mit Cashback dann 522€. X-D Aber Galaxus versagt leider völlig bei Sapphire Karten, keine Ahnung warum. :usad:
G3cko
2025-07-13, 23:28:35
Und wenn ich ganz ehrlich zu mir bin sind die 4k Ergebnisse auch Murks weil ich nichts im nativen 4k spiele (außer vielleicht FH5). Ganz einfach weil die Frames zu niedrig sind. Ergo ist das hier praxisrelevanter.
https://i.postimg.cc/LJRFtqRN/1440p-CB.jpg (https://postimg.cc/LJRFtqRN)
Wenn ich ganz ehrlich bin hätte ich mehr von dir erwartet. ;)
Eine höhere Auflösung, erhöht nur die GPU-Last und eliminiert den Faktor CPU (CPU-Limit) in Test-Szenarien. Es ist doch sowieso nur eine Momentaufnahme mit 15-20 Spielen im Testparcour. Und da möchtest du doch in einem Grafiktest wissen, welche Grafikkarte wie schnell ist. Wenn du wissen willst wie schnell ist Karte XYZ in Spiel XYZ in meine Auflösung, dann guckt man sich das konkret an. Aber dassa sagt ja auch nur aus was die GPU theoretisch leistet. Deine CPU ist vielleicht langsamer und dann?
Schau dir Mal den Computerbase Test zur 8800GTX an. In niedrigen Auflösungen hoffnungslos im CPU-Limit. Welche Aussagekraft haben da noch Tests in niedrigen Auflösungen. Erkenntnisgewinn fps reichen. Ui grandios. ;)
G3cko
2025-07-13, 23:31:33
@Dargo
9070 und 9070XT fallen ins Bodenlose
Da fällt nichts ins bodenlose. USD/Euro Wechselkurs berücksichtigen.
dargo
2025-07-14, 06:43:02
Wenn ich ganz ehrlich bin hätte ich mehr von dir erwartet. ;)
Eine höhere Auflösung, erhöht nur die GPU-Last und eliminiert den Faktor CPU (CPU-Limit) in Test-Szenarien. Es ist doch sowieso nur eine Momentaufnahme mit 15-20 Spielen im Testparcour. Und da möchtest du doch in einem Grafiktest wissen, welche Grafikkarte wie schnell ist.
Falsch... ich möchte wissen was mir die Grafikkarte jetzt bringt und nicht was sie mir bringen könnte wenn in paar Jahren ein Zen6-X3D/Zen7-X3D im Rechner steckt. Bis dahin ist eh eine schnellere Karte im System wodurch sich Limits wieder verschieben. Wenn meine CPU irgendwo limitiert dann ist das eben der Istzustand und daran wird sich auch nichts ändern auf absehbare Zeit. Mich interessieren praxisrelevante Ergebnisse und keine Theoretischen die ich nicht erleben werde. Jetzt könnte man mit dem Argument kommen aber in naher Zukunft werden Games mit einer höheren GPU-Last kommen. Das mag ja zutreffen, wird aber für mich nichts ändern. Denn wenn ich merke, dass die GPU-Last zu hoch ist mit dem Ergebnis, dass die Framerate zu niedrig für mich ausfällt werden Details reduziert oder Upscaling bis ich für mich akzeptable Frames wieder habe.
Zudem... bei CB heißt es 14,7% in 4k vs. 13,2% in 1440p. Worüber reden wir hier? :freak: Das kann man schon beinah als Messchwankung abstempeln.
btw.
Und sollte hier bei 1440p tatsächlich schon die CPU minimal limitieren habe ich in der Praxis von der 9070XT noch weniger da CB mit einem 9800X3D testet und ich einen 5800X3D im System habe. Jetzt nicht falsch verstehen... natürlich ist der Test von CB vollkommen legitim, er ist halt nur nicht 1:1 auf jedes beliebige System in der Praxis übertragbar. Das ist nichts weiter als best case Szenario wenn man immer die schnellste CPU verwendet.
dildo4u
2025-07-14, 13:19:03
14 Custom 9700XT Modelle im Test.
Powercolor Reaper und ASrock Challenger fehlen da sie nicht mehr produziert werden.
4bvT5XvG65Y
G3cko
2025-07-14, 13:26:39
Drago du erzählst Unsinn.
Entweder deine GPU oder CPU limitiert. Ich guck mir doch nicht an wie alle Autos im Stadtverkehr 50 fahren, um anhand dieser Geschwindigkeit das potenziell schnellste auszuwählen. Daher ist es völlig unerheblich ob nun Tempo 70 oder Tempo 100 Schild. Die einzige Aussage die man treffen kann: Grafikkarte schafft Richtgeschwindigkeit. Glückwunsch zu der Erkenntnis.
Bulldozer ist super, wenn man in 8k spielt. Glückwunsch, auch ein 200 Jahre altes Auto kann souverän die Spielstraße in Schrittgeschwindigkeit meistern. ;)
Kauf doch einfach für Budget XYZ die schnellste Komponente für dein Geld. Egal ob deine CPU die Karte manchmal nicht voll auslasten kann, na und? CPU-Limit böse, GPU Limit gut? Beide Komponenten haben Geld gekostet oder nicht? Warum muss die eine Komponente immer voll ausgelastet sein, und bei der anderen ist es egal?
Die Grafiklast/ Anforderungen steigen ohnehin schneller als die Anforderungen an die CPU. Selbst wenn deine CPU deine Grafikkarte aktuell nicht voll auslastet, mit der Zeit wird sie es. Das liegt in der Natur der Sache, weil die Performancezuwächse bei Grafikkarten größer sind als bei CPUs.
DrFreaK666
2025-07-14, 13:57:13
Falsch... ich möchte wissen was mir die Grafikkarte jetzt bringt und nicht was sie mir bringen könnte wenn in paar Jahren ein Zen6-X3D/Zen7-X3D im Rechner steckt...
Kann dir anbieten, dass wir mal vergleichen. Hab zwar nur eine Non-XT und meine CPU ist ca. 15% langsamer, aber wenn du willst...
aceCrasher
2025-07-14, 16:01:33
CPU-Limit böse, GPU Limit gut?
CPU-Limit is tatsächlich böse, führt häufig zu schlechteren Frametimes, in dem Fall würde ich lieber cappen, im GPU-Limit ist das nicht nötig.
dargo
2025-07-14, 16:23:09
Kann dir anbieten, dass wir mal vergleichen. Hab zwar nur eine Non-XT und meine CPU ist ca. 15% langsamer, aber wenn du willst...
Nicht nötig, ich weiß ja längst was mich erwartet. :) Bei mir wird es wahrscheinlich auch die non XT, die ich dann auf 240-250W "hochjage". Wird spontan nach den Preisen entschieden in paar Wochen.
Entweder deine GPU oder CPU limitiert.
Breaking News Bro.
14 Custom 9700XT Modelle im Test.
https://youtu.be/4bvT5XvG65Y
Ähm... 70+°C Vram Hotspot bei 4 Modellen? Das riecht doch schon wieder nach Samsung statt Hynix. Ist der Reviewer darauf genauer eingegangen?
G3cko
2025-07-14, 16:29:06
CPU-Limit is tatsächlich böse, führt häufig zu schlechteren Frametimes, in dem Fall würde ich lieber cappen, im GPU-Limit ist das nicht nötig.
Das gilt /galt in der Vergangenheit vor allem für CPUs mit zuwenig Cores/Threads in der Breite. Gerade beim 6600k (4C/4T) in BF1 zu beobachten. CPU ist zu 100% auf allen Cores ausgelastet und es kommt zu Mikrorucklern, da der kritische Mainthread nicht rechtzeitig bearbeitet wurde. CPUs mit vielen Kernen dagegen gläten die Frametimes.
14 Custom 9700XT Modelle im Test.
Powercolor Reaper und ASrock Challenger fehlen da sie nicht mehr produziert werden.
https://youtu.be/4bvT5XvG65Y
Interessant wäre zu wissen, ob Hynix oder Samsung Rams verbaut wurden. Die Differenzen sind imo ein wenig zu hoch. Man könnte es vielleicht erahnen, anhand der gezeigten Vram-Temperaturen...
dargo
2025-07-15, 07:12:03
Hier sieht das bei der 9070 non XT Pulse auch nach Samsung Speicher aus.
GCWKWEwoeGQ
Warum die Lüfter bei ihm aber so hoch drehen bleibt ein Rätsel. In allen Tests die ich zur Pulse non XT gesehen habe laufen die Lüfter deutlich langsamer.
Hakim
2025-07-15, 15:26:49
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-amd-radeon-treiber-vergleich-2025.93443/#abschnitt_benchmarksergebnisse_im_standardparcours
Etwas merkwürdig finde ich das die 5080 langsamer geworden sein soll.
DrFreaK666
2025-07-15, 15:50:55
Die Treiber bei Nvidia hatten in letzter Zeit mit Problemen zu kämpfen. Vielleicht wurde etwas Performance für Stabilität geopfert
dargo
2025-07-16, 18:39:44
14 Custom 9700XT Modelle im Test.
Powercolor Reaper und ASrock Challenger fehlen da sie nicht mehr produziert werden.
https://youtu.be/4bvT5XvG65Y
Jetzt habe ich mir das Video in Ruhe komplett angesehen.
Bin etwas überrascht von der RX 9070 XT Swift bezüglich Kühlerperformace, und zwar positiv. Finde es auch gut, dass HWU in einem geschlossenen Gehäuse testet und keinem offenen Aufbau.
Raumtemperatur = 21°C
GPU-Edge = 59°C
GPU-Hotspot = 79°C
Vram-Hotspot = nur 75°C (vermutlich wegen Samsung)
Lüfter = 1.100RPM
Das ganze bei 304W.
Bin immer noch unschlüssig ob RX 9070 non XT Pulse/Hellhound und beide auf 240-250W hochjagen oder doch eher XFX RX 9070 XT Swift und diese bei 250W bremsen. :ulol: Die Swift würde dann ca. 30€ mehr kosten. :uponder: Also wenn schon die Swift XT, dann nur bei einer guten Cashback-Aktion. Ich hatte bisher keinen vernünftigen Test zur XFX RX 9070 XT Swift gefunden und habe die eher durchwachsenen Ergebnisse der Swift non XT auf die Swift XT übertragen. Hatte dabei aber völlig übersehen, dass die Swift non XT nur 290mm lang ist und die Swift XT 325mm. Mehr Kühlfläche hilft in der Regel auch mehr (wobei es wieder komisch ist warum der größere Quicksilver Ziegelstein nicht besser kühlt). Jetzt ist halt nur die Frage ob bei 250W 900RPM (die Lüfter sind bei vergleichbaren Drehzahlen leider einiges lauter als die Konkurrenz) immer noch vollkommen ausreichen? :uponder: Würde schätzen eher ja, weil über 50W weniger Abwärme ist schon ordentlich.
Und blöderweise habe ich schon wieder die min. Drehzahl der Swift XT vergessen falls die hier schon mal geteilt wurde. :usad:
Edit:
Mal ein etwas gewagter Quervergleich. :D
Bei Igor kommt die 245W XFX Quicksilver non XT (gleiche Lüfter wie bei Swift XT) recht gut weg.
https://www.igorslab.de/amd-radeon-9070xt-und-9070-im-test-taktorgie-mit-brechstange-und-zumindest-etwas-vernunft-als-gegenpol/9/
Raumtemperatur = 20°C
GPU-Hotspot = ca. 73°C (fast schon lächerlich niedrig)
Lüfter = 900RPM
Bei HWU war die Kühlleistung der Quicksilver XT nicht besser als bei der Swift XT. Sogar minimal schlechter da +100RPM bei den Lüftern für gleiche Hotspot Temperatur.
Falls hier jemand die XFX RX 9070XT Swift im Einsatz hat bitte die min. Drehzahl posten.
GerryB
2025-07-16, 21:01:45
Die Frage ist, wie laut wird z.Bsp. ne nonXT-Pulse@245W, ... dann vllt. doch 30€ mehr für die Swift-XT ?!
Da würde ich mir den größeren Kühler gönnen.(vermutlich ist bei gleichem Fps-Limit die XT sogar sparsamer)
Fps-Limit in der Range, wo die nonXT die 245W schon braucht, aber die XT evtl. nur 235W
Lautstärke auf dem Desktop ist zwar schön und gut aber letzten Endes solls auch in Games kühl bleiben.
dargo
2025-07-16, 21:16:26
Die Frage ist, wie laut wird z.Bsp. ne nonXT-Pulse@245W, ... dann vllt. doch 30€ mehr für die Swift-XT ?!
Die kriegst du nur auf 242W hoch. Aber Spaß bei Seite... PCGH hat diese mit 0,2 Sone bei 1.000RPM gemessen, offener Aufbau allerdings.
https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/Specials/Custom-Designs-Hands-on-Test-1467296/3/
Das war die leiseste Grafikkarte seit einer Ewigkeit. Von daher gehe ich hier davon aus, dass bei 22W mehr nur ~1.200RPM nötig sind um gleiche Temps. zu erreichen. Möglichweise ist nicht mal das nötig weil 70°C GPU-Hotspot sind ein Witz.
Bei CB hat die Pulse non XT auch extrem gut in einem geschlossenen Gehäuse abgeschnitten.
https://www.computerbase.de/artikel/grafikkarten/radeon-rx-9070-custom-design-test.91526/seite-2#abschnitt_lautstaerke_unter_last
btw.
Bei der Pulse non XT rechne ich schon mit ~600€, gestern hätte ich die für 606,xx€ kaufen können. Ich vergleiche nie reine GH-Preise sondern Händlerpreise + Cashback. Oder jetzt wäre auch die Hellhound non XT (die flache Flunder :D) für 604,30€ direkt bestellbar mit Cashback.
https://www.galaxus.de/de/s1/product/powercolor-radeon-rx-9070-oc-hellhound-16-gb-grafikkarte-55665865?utm_campaign=preisvergleich&utm_source=geizhals&utm_medium=cpc&utm_content=2705624&supplier=2705624
Das ist für mich die Messlatte. :)
Edit:
Kurz und schmerzlos... für mich stehen nur diese Kandidaten zur Auswahl.
RX 9070 non XT Pulse
RX 9070 non XT Hellhound
RX 9070 XT Swift (hier bin ich noch etwas unsicher) sofern ich sie für ca. 620-630€ bekomme
GerryB
2025-07-16, 21:27:28
mit I2C Script ist only the Sky das Limit
btw.
man kann das Script aber auch zum UVen benutzen, ... müsste mal reloadll im pcgh-thread fragen, wie weit runter
SOC+VDDCI+Vram stabil läuft, ... wäre dann ähnlich nice wie bei RDNA2@MPT
https://extreme.pcgameshardware.de/threads/amd-radeon-rdna-4-laberthread.657190/page-171#post-11898605
2664 MHz -120mV SOC -120mV VDDIO -100mV VDDCI@hynix
Da langsam rantasten!
(sonst bleibts evtl. beim Anmeldebildschirm hängen)
dildo4u
2025-07-20, 10:15:53
9070 vs 5070 nach dem neuesten Update mit FSR4
nE8Qz6RLhME
Ex3cut3r
2025-07-20, 10:50:02
Die 5070 wird in Foren oft schlechter dargestellt als sie eigentlich ist. Mit dem kommenden Refresh und vermutlich 18 GB Speicher könnte sie für viele Nutzer eine sehr ausgewogene Grafikkarte sein, vorausgesetzt der Preis bleibt in etwa auf dem bisherigen Niveau.
Denniss
2025-07-20, 13:18:13
vorausgesetzt der Preis bleibt in etwa auf dem bisherigen Niveau.Da glaubst du doch wohl nicht dran? Wäre neu daß Nvidia sich mehr Speicher nicht vergolden läßt.
DeadMeat
2025-07-20, 13:30:23
Mit dem kommenden Refresh und vermutlich 18 GB Speicher könnte sie für viele Nutzer eine sehr ausgewogene Grafikkarte sein, vorausgesetzt der Preis bleibt in etwa auf dem bisherigen Niveau.
Also braucht es eine neue Karte (super) welche die Fehler der alten beseitigt und auf absolut untypischer Art nicht/oder kaum mehr kostet damit die Karte Ausgewogen ist.
Die 5070 wird in Foren oft schlechter dargestellt als sie eigentlich ist.
Klingt ja dann eher danach als ob sie richtig Dargestellt wird.
Hätte Nvidia eine solche Karte zum 5070 ähnlichen Preis gebracht wäre die sicher die absolute Nr1 Karte, daran besteht kein Zweifel aber sie haben die 5070 mangelhaft Positioniert , sie wird Dargstellt wie sie ist, mit min. 4gb RAM zuwenig.
Ex3cut3r
2025-07-20, 14:56:54
Scheint, als wäre bei einigen eine gewisse Unsicherheit spürbar.
Die Behauptung, 12 GB VRAM seien nicht mehr ausreichend, wird in Foren wie diesem immer wieder verbreitet.
Fakt ist jedoch: Beim brandneuen Spiel RoboCop: Unfinished Business kommt ComputerBase zu folgendem Ergebnis:
https://s1.directupload.eu/images/250720/unb68wwz.png
12 GB VRAM reichen aktuell noch problemlos aus. Und wenn nicht, kann man immer Texturen und/oder Schatten eine Stufe runterstellen.
DrFreaK666
2025-07-20, 15:10:29
UE5 Titel benötigen allgemein eher wenig VRAM, wenn ich mich nicht täusche
aufkrawall
2025-07-20, 15:20:48
Fakt ist jedoch: Beim brandneuen Spiel RoboCop: Unfinished Business kommt ComputerBase zu folgendem Ergebnis:
Bei UE5, über die du sonst gerne herziehst. In etwa Hogwarts mit UE4 und Nvidia-RT sah das noch anders aus.
robbitop
2025-07-20, 15:33:00
Einen einzelnen Datenpunkt als Argument für etwas Generelles zu nehmen ist nicht besonders geschickt ^^
Weiterhin gab es genug Untersuchungen mit breiter Masse an Spielen, die gezeigt haben, dass 12 GB in immer mehr Konfigurationen anfängt knapp zu werden. Bei einer GPU die stark genug für gute Auflösungen und RT und zT PT ist. Und das zum Lebensanfang. Das ist nicht ideal und definitiv ein Schwachpunkt. Und deshalb kommt auch die Super Version mit 50% mehr VRAM.
aufkrawall
2025-07-20, 15:52:45
Bei einer GPU die stark genug für gute Auflösungen und RT und zT PT ist
Nicht in UE5.
Würde bislang MFG als größeren Vorteil einstufen als 4GB VRAM mehr. Mit 2xFG (selbst wenn es noch schönt und annimmt, dass das Pacing mit spätestens FSR FG mal nicht hinüber ist) bei 80-90fps in etwa Talos sehen Kameradrehungen mit Hold-Type immer noch aus wie ausgekotzt. Trotz der Qualitätsprobleme von MFG, sieht das bei 130-140fps damit einfach zigfach weniger unangenehm aus. Kann mir das Geruckel nicht mehr geben.
Hakim
2025-07-20, 16:17:32
Es gibt für alles einen Markt wenn der Preis stimmt, aber um 600€ rum waren/sind mMn 12GB nicht angemessen. Das sieht um so Blöder aus wenn schon die kleinen 9060XT und 5060Ti eine 16GB Version anbieten. Aber um 500€ kann man es holen finde ich, wenn man sich bewußt wird das es nur 12GB hat und das einem ausreicht und man lieber die 30% mehr Performance gegenüber der 5060Ti will. Dennoch, die 70er waren immer so die beliebteste Reihe fand ich, ein Kompromiß zwischen den Top Karten und günstigeren Karten. Nur diesmal hat es Nvidia für einige wegen dem VRam unattraktiv gemacht, dazu hat AMD ihre 9070er Karten gut in dem Bereich plaziert.
Denke war so geplant, die die sowieso holen wollen und ungeduldig sind erst mal melken, und anschließend die deutlich bessere 5070S für alle die gewartet haben melken. Mit etwas Glück melkt man einige Personen zweimal mit der selben Reihe :)
Neurosphere
2025-07-20, 23:00:48
Scheint, als wäre bei einigen eine gewisse Unsicherheit spürbar.
Die Behauptung, 12 GB VRAM seien nicht mehr ausreichend, wird in Foren wie diesem immer wieder verbreitet.
Fakt ist jedoch: Beim brandneuen Spiel RoboCop: Unfinished Business kommt ComputerBase zu folgendem Ergebnis:
https://s1.directupload.eu/images/250720/unb68wwz.png
12 GB VRAM reichen aktuell noch problemlos aus. Und wenn nicht, kann man immer Texturen und/oder Schatten eine Stufe runterstellen.
DU darfst auch nicht vergessen, du kaufst dir die Karte ja nicht nur für jetzt sondern vermutlich für mindestens die kommenden zwei Jahre. Und über die Zeitspanne werden 8-12 GB vermutlich nicht mehr reichen.
basix
2025-07-21, 15:42:21
Wäre neu daß Nvidia sich mehr Speicher nicht vergolden läßt.
Preise werden mit grosser Wahrscheinlichkeit ansteigen.
Gerüchte:
- 5070Ti -> 5070TiS = 749$ -> 849$
- 5080 -> 5080S = 999$ -> 1149$
Eine 5070S würde ich also ausgehend von 550$ der 5070 und den oben beschriebenen Gerüchten bei etwa 600...630$ erwarten. Vermutlich eher 600$, da in direkter Konkurrenz mit 9070 und 9070XT.
Hakim
2025-07-21, 16:26:16
Ob AMD auf die Super Versionen reagiert und auch bessere Versionen bringt? Mehr speicher bei 256 Bit SI, schwer ohne 3GB GDDR7 Module, 32GB wären etwas zuviel des guten und würde den Preis steigern. Vielleicht einfach nur etwas höherer Takt und 9075 oder 9080 :)
basix
2025-07-21, 16:40:08
Unwahrscheinlich. 16GB sind für beide 9070er gut genug. Und eine 9070XT ist schon geprügelt.
Für AMD wäre es wohl sinnvoller, die Preise etwas zu reduzieren. Und FSR4 Redstone möglichst bald und weitverbreitet in Spiele zu bringen.
The_Invisible
2025-07-21, 16:40:37
Preise werden mit grosser Wahrscheinlichkeit ansteigen.
Gerüchte:
- 5070Ti -> 5070TiS = 749$ -> 849$
- 5080 -> 5080S = 999$ -> 1149$
Eine 5070S würde ich also ausgehend von 550$ der 5070 und den oben beschriebenen Gerüchten bei etwa 600...630$ erwarten. Vermutlich eher 600$, da in direkter Konkurrenz mit 9070 und 9070XT.
Wieso eigentlich? 4080S wurde günstiger, 4070TiS hat mit mehr Speicher auch gleich viel gekostet wie 4070Ti
basix
2025-07-21, 16:43:51
Mehr Speicher kostet mehr ;)
Die 4080 war stark überteuert (wurde deswegen auch kritisiert) und hat deswegen eine Korrektur bekommen. Die 4070TiS hat eine völlig überteuerte 4070Ti mit kleinem AD104 Chip abgelöst (wurde ebenfalls kritisiert). Andere Vorbedingungen.
Ex3cut3r
2025-07-21, 19:50:22
RDNA 4 krankt momentan an Shader Compile Probleme, wo ein Shader in UE4 Spielen ungewöhnlich lange braucht bis er compiled ist. Komisch, dass das bisher niemanden im Forum aufgefallen ist. Auch unseren hochgelobten YouTubern, die immer gerne auf Nvidia draufschlagen. Und das Stecker-Thema zum x-ten Mal vorsetzen.
Quelle: https://www.reddit.com/r/pcmasterrace/comments/1lvvbjc/ray_tracing_is_broken_on_rx_9070_9070_xt_in_ue4/
DF kann es bestätigen:
https://youtu.be/m05yE_-X7uY?t=4486
aufkrawall
2025-07-21, 19:55:50
Komisch, dass das bisher niemanden im Forum aufgefallen ist.
Das ist ständig bei sehr vielen Dingen so. Aber nicht AMD-exklusiv, nur (massiv) gehäuft. :redface:
w0mbat
2025-07-21, 21:15:01
Ich kann es nicht bestätigen.
Ex3cut3r
2025-07-21, 21:16:21
In UE4 Games mit RT? Nur da tritt es auf.
TheGood
2025-07-21, 22:14:40
In UE4 Games mit RT? Nur da tritt es auf.
Wow ein absoluter Skandal, auf einer veralteten Engine gibts ab und an mal probleme, Da wird die Grafikkarte direkt in Flammen aufgehen ;)
Ex3cut3r
2025-07-22, 06:41:15
Na klar, wer braucht schon konstante FPS, wenn man stattdessen in regelmäßigen Abständen eine PowerPoint-Präsentation genießen kann? Unreal Engine 4 + AMD RT = cinematic experience inklusive Zeitlupenfunktion. Yeah. Kein großes Ding. Passt schon. 700€ dafür.
The_Invisible
2025-07-22, 09:12:35
Wow ein absoluter Skandal, auf einer veralteten Engine gibts ab und an mal probleme, Da wird die Grafikkarte direkt in Flammen aufgehen ;)
Naja die genannten Games sind jetzt nicht so alt. Da wurde mehr ein Skandal daraus gemacht das >10 Jahre alte 32bit Physx Games auf RTX 5000 nicht mehr performant läuft
Exxtreme
2025-07-22, 09:32:36
Diese Problematik macht jetzt definitiv die Runde:
https://www.igorslab.de/moegliche-raytracing-probleme-bei-amd-rx-9070-9070-xt-unter-unreal-engine-4/
Interessant ist, dass das in den Reviews nie aufgefallen ist. Entweder waren die früheren Treiber nicht betroffen oder diese Spiele wurden nicht getestet.
DrFreaK666
2025-07-22, 09:47:34
Muss ich später mal schauen. Ist mit bei den wenigen Games mit RT, die ich habe, nicht aufgefallen
Exxtreme
2025-07-22, 09:51:19
Betrifft offenbar nur Spiele mit UE4, welche RT haben. Spiele mit RT und anderen Engines sind offenbar nicht betroffen.
Lurtz
2025-07-22, 10:02:50
UE4 RT ist doch eh der größte Crap.
Exxtreme
2025-07-22, 10:17:04
Mag ja sein. Trotzdem hält das Spieleentwickler nicht davon ab, Grütze für ihre Spiele zu benutzen wenn es schön billig ist. Und es gibt nicht wenige Spiele mit UE4+RT.
DrFreaK666
2025-07-22, 10:23:39
Betrifft offenbar nur Spiele mit UE4, welche RT haben. Spiele mit RT und anderen Engines sind offenbar nicht betroffen.
Aber ich hab glaub nur Hellblade und Pumpkin Jack
w0mbat
2025-07-22, 10:46:50
Betrifft offenbar nur Spiele mit UE4, welche RT haben. Spiele mit RT und anderen Engines sind offenbar nicht betroffen.
Jedi Survivor ist doch UE4 + RT?
Der_Korken
2025-07-22, 10:50:28
Dass es eine spezifische Engine betrifft und angeblich unter Linux (mit Vulkan statt DX12) fehlerfrei läuft, klingt schon stark nach Softwareproblem.
Dass es eine spezifische Engine betrifft und angeblich unter Linux (mit Vulkan statt DX12) fehlerfrei läuft, klingt schon stark nach Softwareproblem.
Richtig, deshalb postete ich es im Treiberthread und nicht hier.
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13786812#post13786812
Komisch, dass das bisher niemanden im Forum aufgefallen ist. [...] Nvidia draufschlagen.
Komisch, dass wieder ein "Mein Multibillionen-Dollar-Konzern ist viel besser als deiner"-Streit von diversen Leuten angefacht wird.
Vielleicht "spielen" die meisten Arbeitenden einfach nicht fünf verschiedene Games pro Tag und haben Zeit eine ausführliche Untersuchung und Bericht wie in dem Reddit-Thread anzufertigen, nur um dann 90% kontextlose Antworten wie "Bei mir läuft's" zu bekommen.
Der_Korken
2025-07-22, 11:57:29
Interessant wäre, ob es auch mit der 9060 passiert.
Hakim
2025-07-22, 12:37:11
Wahrscheinlich schon wenn es schon bei rdna3 passiert. Gut möglich das es nicht jeden betrifft. Ich habe einen Freund der mit seiner RDNA3 keine Probleme hat wenn wir WZ auf Verdansk spielen, obwohl viele AMD Karten Besitzer seit Monaten ein Stotterproblem auf der Map haben und es auch von AMD dokumentiert ist
Bismarx
2025-07-22, 16:36:31
Bei uns wird ab und zu Hogwarts Legacy auf der 9070 XT gespielt. Alles auf max. und RT on. Ja, die Shader-Kompilierung dauerte ein paar Minuten. Ist allerdings nicht groß aufgefallen. Also anscheinend sollte das schneller gehen, richtig?
Mordekai2009
2025-07-29, 12:04:57
7qDlHpeTmC0
Ein Vergleich zwischen ROCm 6.4.1 und ROCm 7.0.0 Alpha 2.
Zirka 19,3% mehr Leistung gegenüber ROCm 6.4.1 unter Fedora Linux mit ComfyUI und Radeon RX 9070. Ein Anfang.
Megamember
2025-07-30, 18:19:10
...
Mordekai2009
2025-07-31, 09:17:39
Hast Du ein Problem?
EDIT: Es bezieht sich auf reine Performancevergleich und kann später in Stable Release viel ändern. Was sie die Bilder im Video sehen usw. Das interessiert mich nicht. Und für meinem PC warte ich auf das AMD HIP SDK für Windows bevor ich mich an einigen AI Sachen ausprobieren kann. Ohne Hardwarebeschleuniging wird es nicht.
dargo
2025-08-06, 22:22:24
Kleiner Spoiler schonmal zur XFX Swift RX 9700XT unter Win11 und 4k240Hz mit Adrenalin 25.8.1 da ich etwas früher nach Hause konnte. Wow... :)
93824
Min. RPM bei der Karte ohne ZeroFan. :up:
93825
Erster Schnellschuss mit -40mV im Wattman @260W vs. Stock. Das hier sieht schon mal gut aus. Offenbar sind ca. 260W nötig um keine Performance zu verlieren sofern die -40mV auch tatsächlich auf Dauer stabil sind, ist ja noch nichts festes. Die nur 15°C Delta bei 260W gefallen mir sehr gut. :)
https://i.postimg.cc/k276Vhgh/APlague-Tale-Requiem-x64-2025-08-06-22-45-19-685.jpg (https://postimg.cc/k276Vhgh) https://i.postimg.cc/tsD1Ft1R/APlague-Tale-Requiem-x64-2025-08-06-22-48-08-233.jpg (https://postimg.cc/tsD1Ft1R)
PS: AB-Overlay muss noch angepasst werden. ;)
PPS: linke Seitenwand vom Gehäuse noch offen, Temps sind also nicht final.
Bei der XFX Swift RX 9700XT habe ich den nicht so heißen GDDR6 von Samsung erwischt. :up:
93826
Geilomat... der Samsung Vram bleibt selbst bei max. 1.000RPM weit unter 80°C. :up: 6 Minuten lang im 260W Saft brutzeln lassen.
https://i.postimg.cc/47GV5Nfs/APlague-Tale-Requiem-x64-2025-08-06-23-26-46-425.jpg (https://postimg.cc/47GV5Nfs)
Edit:
Das neue Spielzeug ist schon ganz nett. :)
Max. 260W mit -60mV im Wattman
https://i.postimg.cc/hz74f9WG/tlou-ii-2025-08-07-00-08-13-843.jpg (https://postimg.cc/hz74f9WG)
Max. 260W mit -60mV und -500Mhz im Wattman
https://i.postimg.cc/XXd7WckH/tlou-ii-2025-08-07-00-08-47-487.jpg (https://postimg.cc/XXd7WckH)
Das ganze natürlich mit FSR4, hier balanced.
Ex3cut3r
2025-08-07, 07:02:59
Ist das TLOU2 mit FSR 4? Wie findest du FSR 4? Im Vergleich zu FSR 3.1?
dargo
2025-08-07, 08:21:56
Ja, ist FSR4. Das was ich bisher mit FSR4 auf die schnelle gesehen habe überzeugt.
btw.
Ab jetzt Gehäuse geschlossen und ich blende auch die tatsächlich anliegende Vcore mit ein. Allein -xmV im Wattman bringt ja nichts da nicht jeder AIB bei jeder Karte exakt die gleichen Spannungen für die Frequenzen anlegt. :)
HZD Remastered mit max. 260W, 4k+ FSR4 balanced mit -60mV und -500Mhz.
https://i.postimg.cc/DJ2TkZ1x/Horizon-Zero-Dawn-Remastered-2025-08-07-08-14-50-921.jpg (https://postimg.cc/DJ2TkZ1x)
Um die 215-220Wattchen im Taktlimit. :)
robbitop
2025-08-07, 08:55:39
Quartalszahlen von AMD: Ryzen und Radeon werden zum stärksten Pferd im Stall
https://www.computerbase.de/news/wirtschaft/quartalszahlen-von-amd-ryzen-und-radeon-werden-zum-staerksten-pferd-im-stall.93792/
Sehr gut - der Markt belohnt das was man mit RDNA4 gemacht hat. :up: Man muss es einfach nur richtig machen, dann kommt der Erfolg. ^^
Ich hoffe, dass dieser Erfolg (nach einer ziemlichen Durststrecke) auch die richtigen Reize und Erkenntnisse setzt.
1.) bezahlbare Grafikkarten (vor allem im Mainstream!) mit sehr gutem P/L
2.) endlich richtig gut auch in der B Note (Features wie FSR4 und auch RT Leistung)
Weiter so AMD damit es einen möglichst ausgeglichenen Markt gibt. Finde ich richtig super. Insbesondere wenn man mal sieht, dass es jetzt N48 im Vollausbau für 600 EUR (!!!) zu kaufen gibt. Das hätte man (mit Kontext der Performance und Features) vor 1 Jahr kaum für möglich gehalten, da diese Performanceklasse da ~1000 EUR war. :up:
Leichtes OT aber auch sehr interessant für Radeon user (aber auch für alle anderen) - XeLL und XeSS FG funktionieren laut Ancient Gameplays richtig gut auch auf nicht-Intel HW.
https://www.youtube.com/watch?v=vxWxZIr2mJ8&t=932s
Gerade das Framepacing war ja mit FSR FG (insbesondere auf Nicht-Radeons) ja nicht so toll. XeSS FG erzeugt smoothe frametimes auf jeder HW in jedem getesteten Spiel. Und das gute ist, XeLL (low latency) ist Pflicht (und rennt GPU agnostisch). Da gab es ja IIRC auch einige FSR FG Umsetzungen ohne low latency pendant.
Naja ziemlicher Wildwuchs, der jetzt sicherlich mit FSR4 und Redstone gerade gerückt wird - hoffentlich.
Was ich aber ein wenig meine (ohne jetzt Gemüter erhitzen zu wollen): Intel zeigt, dass diese Verfahren auch ohne diese ganzen Holprigkeiten die wir bei FSR FG erlebt haben direkt an den Start gehen kann. QA ist wichtig und auch das Mandat ein Release dann zu verzögern bis es schön polished ist.
Ich hoffe, dass die Erkenntnis bei AMD jetzt auch immer mehr gereift ist. Das war in der Vergangenheit nicht unbedingt förderlich für den Ruf. Lieber ein wenig warten/verzögern und dann was sauberes/rundes releasen. (FSR4 ist zuletzt ein absolutes Positivbeispiel! also weiter so :))
Sorry für das OT.
Disco_STFU
2025-08-07, 09:22:57
Ja, ist FSR4. Das was ich bisher mit FSR4 auf die schnelle gesehen habe überzeugt.
btw.
Ab jetzt Gehäuse geschlossen und ich blende auch die tatsächlich anliegende Vcore mit ein. Allein -xmV im Wattman bringt ja nichts da nicht jeder AIB bei jeder Karte exakt die gleichen Spannungen für die Frequenzen anlegt. :)
HZD Remastered mit max. 260W, 4k+ FSR4 balanced mit -60mV und -500Mhz.
https://i.postimg.cc/DJ2TkZ1x/Horizon-Zero-Dawn-Remastered-2025-08-07-08-14-50-921.jpg (https://postimg.cc/DJ2TkZ1x)
Um die 215-220Wattchen im Taktlimit. :)
WAs sagt die Lautheit? Klingt danach, als würde die Karte eher bleiben was! :D
dargo
2025-08-07, 09:39:50
WAs sagt die Lautheit? Klingt danach, als würde die Karte eher bleiben was! :D
Imho hat die XFX Swift RX 9070XT zu wenig Aufmerksamkeit von den Reviewern bekommen. Der Kühler ist zumindest bei max. 260W sehr gut. Ich habe mir die RPM in Idle mal genauer angehört. Also im worst case da beim Gaming ja immer der Sound mitläuft und auch die anderen Gehäuselüfter inkl. CPU schneller drehen als Idle. Bei ~1.000RPM höre ich die XFX Lüfter aus meinem Gehäuse nahezu nicht mehr heraus. Da muss ich schon mit dem Kopf ans Gehäuse dran um da überhaupt noch eine minimale Luftbewegung wahrzunehmen, nichts was irgendwie stört. Eventuell gehe ich noch 30-60RPM rauf. Das muss ich langfristig testen. Ab ~1.100RPM könnten mich die XFX Lüfter langsam stören. Könnten deshalb weil ich das eben in Idle bewerte. Im Gaming fällt das womöglich nicht auf aus den oben genannten Gründen. Das muss ich auch noch ausprobieren.
btw.
Im geschlossenen Gehäuse sieht das alles mit ~1.000RPM sehr gut aus.
Max. 260W, 4k + FSR 4 balanced, -50mV bei aktuell 24°C im Raum.
https://i.postimg.cc/yDrNh23f/tlou-ii-2025-08-07-09-17-12-315.jpg (https://postimg.cc/yDrNh23f)
PS: CP77 crashte mit -60mV, ergo gehe ich mit der Spannung rauf.
PPS: den Taktoffset lasse ich erstmal weg. Macht ja keinen Sinn, schließlich will ich die Kühlerperformance testen. Was bei 260W überzeugt, überzeugt erst recht bei weniger Wattchen.
Der Samsung GDDR6 gefällt mir extrem gut. Ich habs lieber wenn der GPU-Hotspot limitiert. :)
Edit:
Achso... die Stock Lüfterkurve ist bei der Swift wie schon zu erwarten war völliger Murks, mit Stock 304W getestet. Die Lüfter gehen auf bis zu 1.600RPM (X-D) im "Panikmodus" hoch um dann wenige Sekunden später massiv wieder runter zu gehen. Keine Ahnung was die AIBs da immer rauchen. Ergo wie immer custom Lüftersteuerung verwenden! Diese negativen Bewertungen zur Kühlerlautstärke im Netz beziehen sich sicherlich auf die Stock Lüfterkurve. Das kommt halt davon wenn ein "08/15 Hans" sowas bewertet. Die 1.600RPM sind natürlich schon recht laut.
PS: auf dem Originalkarton meiner Swift steht was von Version 3.0. Keine Ahnung ob das was zu sagen hat. Das müsste man mit den ersten Swift Karten die ausgeliefert wurden vergleichen. Also ob XFX mit Ver. 1.0 angefangen hatte.
Edit:
Bin jetzt lange in CP77 rumgedüst mit dauerhaft 260W und kann sagen, dass selbst ~1075RPM super leise im Gaming sind, nichts was in irgendeiner Weise stören würde. Raumtemperatur beträgt 24,1°C. Delta Edge/Hotspot hat sich bei 16°C eingependelt bei dieser Power.
https://i.postimg.cc/bdpr0xF2/Cyberpunk2077-2025-08-07-10-37-25-609.jpg (https://postimg.cc/bdpr0xF2)
Den Lüfterlagern sollte man imo eh mindestens eine Woche Zeit geben bis die sich vernünftig einlaufen um endgültig die Lautstärke zu beurteilen.
Disco_STFU
2025-08-07, 11:49:23
CP mit PT gequält? :D
dargo
2025-08-07, 11:57:21
Viel zu teuer, sowas nutze ich nicht. PT wird frühestens eine Thema für mich mit RDNA5 bzw. AT0. Aber auch nur wenn die PT-Frametime massiv sinkt.
btw.
Die 600RPM der Swift sind in Idle aus dem geschlossenen Gehäuse absolut unhörbar. Das passt insofern perfekt wenn man kein ZeroFan mag. (y)
Der_Korken
2025-08-07, 14:26:00
Achso... die Stock Lüfterkurve ist bei der Swift wie schon zu erwarten war völliger Murks, mit Stock 304W getestet. Die Lüfter gehen auf bis zu 1.600RPM (X-D) im "Panikmodus" hoch um dann wenige Sekunden später massiv wieder runter zu gehen. Keine Ahnung was die AIBs da immer rauchen. Ergo wie immer custom Lüftersteuerung verwenden! Diese negativen Bewertungen zur Kühlerlautstärke im Netz beziehen sich sicherlich auf die Stock Lüfterkurve. Das kommt halt davon wenn ein "08/15 Hans" sowas bewertet. Die 1.600RPM sind natürlich schon recht laut.
Ich finde es gar nicht so schlecht, wenn Hersteller für sowas schlechte Bewertungen bekommen, denn nur dadurch verbessert sich hoffentlich etwas. Für Linux gibt es mittlerweile ein brauchbares Tool, mit dem sich die Lüfterkurve einstellen lässt, aber lange Zeit war man dort gekniffen, wenn die Default-Einstellungen der Karte murks waren. Deswegen kamen die XFX-Modelle für mich damals nicht in Frage.
Da du ja die nächsten Tage sowieso viel an den Settings spielst: Hättest du Interesse GPU-Z mitlaufen zu lassen und die Daten in ein Log schreiben zu lassen (irgendwo im Tool einen Haken anklicken und dann einen Dateinamen eingeben)? Mich würde nur interessieren wie die V/f-Kurve deiner Karte aussieht. Welches Spiel und welches Powerlimit sind wurscht, darf auch innerhalb einer Datei alles gemischt sein und auch wie lang die Logs sind und ob Idle-Phasen mitgeloggt werden, ist völlig egal. Ich brauche im Log nur GPU-Takt, GPU-Voltage und Board Power Draw - den Rest kannst du ausblenben, wenn er nicht mitgeloggt werden soll. Wichtig ist nur dass pro Datei das gleiche UV-Offset genutzt wird (am besten in den Dateinamen schreiben), sonst sind hinterher mehrere V/f-Kurven in einer Datei vermischt.
Nicht jeder hat Bock darauf an diversen Stellschrauben rumzudrehen. Das Ding muss eingebaut und out of box vernünftig laufen. Deshalb habe ich mir die Hellhound geholt.
dargo
2025-08-07, 15:17:58
Ich finde es gar nicht so schlecht, wenn Hersteller für sowas schlechte Bewertungen bekommen, denn nur dadurch verbessert sich hoffentlich etwas.
Ich beziehe mich da eher auf die User-Rezensionen. Sowas zum Bleistift.
https://www.mindfactory.de/product_info.php/16GB-XFX-Radeon-RX-9070-XT-Swift-Triple-Fan-Gaming-Edition-Aktiv-PCIe-5_1615553.html#tBewertungen
Reviews müssen natürlich mit Stock Settings durchgeführt werden. Witzigerweise hat meine XFX RX 6800XT diesen "Panikmodus" nicht. Oder besser gesagt nicht so stark ausgeprägt.
https://www.igorslab.de/xfx-rx-6800-xt-merc-319-16-gb-im-test-schwerer-brocken-fuer-harte-aufgaben/8/
Bei RX 9070XT Swift hat sich XFX gedacht... brauchen wir nicht. :freak:
Da du ja die nächsten Tage sowieso viel an den Settings spielst: Hättest du Interesse GPU-Z mitlaufen zu lassen und die Daten in ein Log schreiben zu lassen (irgendwo im Tool einen Haken anklicken und dann einen Dateinamen eingeben)? Mich würde nur interessieren wie die V/f-Kurve deiner Karte aussieht. Welches Spiel und welches Powerlimit sind wurscht, darf auch innerhalb einer Datei alles gemischt sein und auch wie lang die Logs sind und ob Idle-Phasen mitgeloggt werden, ist völlig egal. Ich brauche im Log nur GPU-Takt, GPU-Voltage und Board Power Draw - den Rest kannst du ausblenben, wenn er nicht mitgeloggt werden soll. Wichtig ist nur dass pro Datei das gleiche UV-Offset genutzt wird (am besten in den Dateinamen schreiben), sonst sind hinterher mehrere V/f-Kurven in einer Datei vermischt.
Reicht auch ohne UV? Und welchen PT-Bereich brauchst du? 213W bis 304W und in welchen Abständen dann? Ich werde nächste Woche eh u.a. CP77 mehrmals durchlaufen lassen um bestimmte Werte die ich brauche zu erhalten um einen Vergleich zu der Hellhound XT zu haben.
Edit:
Oder soll ich einfach nur mich irgendwo Ingame hinstellen und stückweise mit dem Powerlimit runtergehen? Möchtest du diese Daten haben?
Der_Korken
2025-08-07, 17:29:58
Reicht auch ohne UV? Und welchen PT-Bereich brauchst du? 213W bis 304W und in welchen Abständen dann? Ich werde nächste Woche eh u.a. CP77 mehrmals durchlaufen lassen um bestimmte Werte die ich brauche zu erhalten um einen Vergleich zu der Hellhound XT zu haben.
Edit:
Oder soll ich einfach nur mich irgendwo Ingame hinstellen und stückweise mit dem Powerlimit runtergehen? Möchtest du diese Daten haben?
Theoretisch letzteres, aber ich will hier niemandem die Testerei aufbürden. Deswegen reicht es vielleicht wenn ich einfach ein Log einer längeren Session nehmen könnte wo sich aus dem Taktlimit bereits verschiedene PTs ergeben. Mit oder ohne UV ist egal, solange es nicht zwischendurch wechselt (wobei man das mit genug Datenpunkten auch irgendwann trennen könnte :D).
dargo
2025-08-07, 17:33:12
Hat nichts mit Aufdrücken zu tun. :) Letzteres fände ich sogar einfacher. Ich rufe halt ca. alle 10 Sekunden mit Alt+R den Wattman bzw. Treiber auf um PT zu ändern. Das wirst du sicherlich in den Daten gut trennen können.
RoughNeck
2025-08-07, 18:07:15
Also happy mit der Swift?
Stell grad einen Rechner zusammen und die 9070 XT Swift würde da gut reinpassen vom Preis her, da bleibt dann noch etwas übrig für eine weitere NVME.
dargo
2025-08-07, 18:11:37
Also happy mit der Swift?
Bisher mit den max. 1070RPM definitiv. Vergiss aber bitte nicht, dass ich hier 45W weniger vs. Stock fahre. Bei 304W kann das wieder etwas anders aussehen. Und ich habe auch kein schweizer Käse als Gehäuse wo jeder noch so kleiner Pups nach außen dringt.
RoughNeck
2025-08-07, 18:16:10
Der Käufer möchte sowie so ein sehr leises System und die Komponenten werden undervoltet.
Solange man die Lüfter so einstellen kann dass sich die Temperaturen in Grenzen halten, ist alles OK.
dargo
2025-08-07, 18:18:54
Dann sollte es passen. Ich kann mir kaum vorstellen, dass bsw. 1.000RPM bei der Swift XT jemanden stören sollten. Ich bin in der Hinsicht ziemlich pingelig.
Hakim
2025-08-07, 18:22:53
Die Quicksilver kostet ohne shoop dingsbooms das selber Geld und ist eigentlich die Hochwertigere Reihe bei XFX, also das Zwischending zwischen Swift und Mercury. Sollte nicht schlechter als die Swift sein.
RoughNeck
2025-08-07, 18:23:42
Aktuell hat er eine 2070 Super welche bis auf 1500 - 1600 hoch geht, ist halt nicht aufdringlich aber wahrnehmbar. Kann mir da auch nicht vorstellen dass die Lüfter der Swift das toppen.
dargo
2025-08-07, 18:25:24
Die Quicksilver kostet ohne shoop dingsbooms das selber Geld und ist eigentlich die Hochwertigere Reihe bei XFX, also das Zwischending zwischen Swift und Mercury. Sollte nicht schlechter als die Swift sein.
Laut HWU kann die Quicksilver nichts besser als die Swift und ist ein 25mm längerer Brocken.
Aktuell hat er eine 2070 Super welche bis auf 1500 - 1600 hoch geht, ist halt nicht aufdringlich aber wahrnehmbar. Kann mir da auch nicht vorstellen dass die Lüfter der Swift das toppen.
Eventuell mit dann 1.200-1300RPM, aber so viel wird nicht benötigt. Welche 2700S ist es genau? Mir gehts da speziell um die Lüfterdurchmesser.
RoughNeck
2025-08-07, 18:37:10
Inno3D Twin X2, Dual Slot Karte.
Nix besonderes, Stock gehen die Temperaturen gern mal auf 78° hoch und dann gehen die Lüfter auf 2100 RPM hoch was deutlich hörbar ist.
dargo
2025-08-07, 19:07:20
Inno3D Twin X2, Dual Slot Karte.
Ok... die dürfte keine Herausforderung sein.
https://youtu.be/mE-sgOkmxzE?si=Wapx2i_dL5P8pkdT&t=217
RoughNeck
2025-08-07, 19:51:21
Der Besitzer hat die Karte auch nur undervoltet betrieben, so bleiben die Lüfter akzeptabel, mit FPS Limit dann sowieso aber da jetzt immer mehr Games kommen welche eine 2070 super bei 1440p ans Limit treiben stört ihm die Karte jetzt auch schon undervoltet.
Und da sein System eh schon älter ist (I7 9700K) wird es auch schon Zeit für was neues.
Er wollte am Anfang eine 5070 TI aber da hätte ich müssen den Rest so zusammensparen dass da kein "rundes" Setup dabei rumkommt 1600€ max. Budget und 300€ weniger für eine Vergleichbare Karte welche nur im Ray Tracing geschlagen wird, da braucht man nicht lang überlegen.
horn 12
2025-08-07, 22:34:31
Dann würde ich die Hellhound XT als Rückläufer nicht mehr probieren wenn so happy bist lieber Dargo und ungeöffnet retournieren!
dargo
2025-08-08, 07:55:17
Was ich erstaunlich finde.... APTR scheint bei N48 keine so hohe Heizlast mehr zu verursachen wie bei N21 und erst recht N31. Der Takt unterscheidet sich bei gleicher Power kaum von anderen Games.
4k + FSR4 balanced, -50mV
https://i.postimg.cc/1Vch1TYX/APlague-Tale-Requiem-x64-2025-08-08-07-48-35-462.jpg (https://postimg.cc/1Vch1TYX)
Aktuell teste ich die Lautstärke mit 1.130RPM, wie man unschwer erkennen kann.
Edit:
Ich meine selbst ein FH5 sieht praktisch gleich aus bei Frequenz vs. Power. Das war insbesondere bei N31 ganz anders.
4k + FSR4 Quality, -50mV
https://i.postimg.cc/5Xtr0jRf/Forza-Horizon5-2025-08-08-08-16-23-924.jpg (https://postimg.cc/5Xtr0jRf)
Als ob AMD irgendeinen Flaschenhals (Flaschenhals bedeutet in der Regel Boost rauf) in der neuen Architektur beseitigt hätte. :uponder: Cool ist auch, dass man den Vram Hotspot im AB-Overlay bei N48 einblenden kann. :up:
Erst hier sehe ich etwas mehr Takt, aber auch nicht wahnsinnig viel mehr. 50-100Mhz sind ja Peng bei nicht weit von 3Ghz.
4k + FSR4 balanced, -50mV
https://i.postimg.cc/XZWX0SJS/Banishers-Win64-Shipping-2025-08-08-08-33-44-149.jpg (https://postimg.cc/XZWX0SJS)
Delta zwischen Edge und Hotspot je nach Game liegt zwischen 15 und 17°C. Gefällt mir sehr gut. :)
TLOU 2 liefert mir den höchsten Takt was ich so bisher gesehen habe, der Unterschied ist jetzt aber auch nicht wahnsinnig groß.
4k + FSR4 balanced, -50mV
https://i.postimg.cc/0rfchD8c/tlou-ii-2025-08-08-08-58-44-959.jpg (https://postimg.cc/0rfchD8c)
dargo
2025-08-08, 09:33:31
@Korken
Reicht dir das?
93842
Habe TLOU2 mit Stock Settings gemessen. Angefangen mit +10% PT bis runter zu -30% PT in 10-er Schritten. Oder brauchst du 5-er Schritte?
horn 12
2025-08-08, 09:37:30
und die Hellhound 9070 XT lieber Dargo
Bei Mafia gehen meine Lüfter gar bis 1700 U/min hoch zwecks UE5 womöglich ...
aber muss die Tage mal wieder entstauben und Sommer ist wieder nach 3 Wochen Durststrecke
und habe noch mein Alt-Gehäuse bis Herbst Neuer PC kommt.
dargo
2025-08-08, 10:03:59
und die Hellhound lieber argo
Och Horni... mach dich doch mal locker. :freak: Meinst du ich wechsle jetzt jeden zweiten Tag die Karten oder wie? Die XFX bleibt ca. 10 Tage drin um ausgiebig untersucht zu werden und erst dann wird die Hellhound zum Vergleich eingebaut. Ich habe 30 Tage Zeit für Beides.
Bei Mafia gehen meine Lüfter gar bis 1700 U/min hoch zwecks UE5 womöglich
Autsch. Banishers ist auch UE5 und die XFX Swift bleibt davon bei der Kühlung völlig unbeeindruckt. Bei 260W nicht vergessen. 304W wären aber mit dem Kühler auch drin, wird halt bissel wärmer der Hotspot. Ich schätze ca. 5-7°C als jetzt.
horn 12
2025-08-08, 10:10:10
dies ist nicht zielführend meinerseits betrachtet
wenn die XFX so gefällt behalte jene, zudem du ja weiss dass die Hellhound unter Idle bei 740 bis 800 U/min
Aber Deine Sache...
dargo
2025-08-08, 10:11:35
Aber Deine Sache...
Richtig... meine Sache.
btw.
Eins kann ich aber schon verraten. Die Hellhound XT wirkt vs. Swift XT optisch schon fast wie Spielzeug durch die flachere Bauweise. :tongue: Die Länge ist ja bei beiden Karten in etwa gleich.
Edit:
Das sieht doch schon mal ganz nett aus. :) Am Vram noch gar nichts gedreht.
Stock @max. 304W:
https://i.postimg.cc/9RbwYsK2/Cyberpunk2077-2025-08-08-10-20-52-328.jpg (https://postimg.cc/9RbwYsK2)
-50mV @max. 260W
https://i.postimg.cc/8syrJQLB/Cyberpunk2077-2025-08-08-10-25-31-176.jpg (https://postimg.cc/8syrJQLB)
-55mV @max. 260W
https://i.postimg.cc/pp4hCfGm/Cyberpunk2077-2025-08-08-10-33-32-252.jpg (https://postimg.cc/pp4hCfGm)
Jetzt müssen sich die -55mV nur noch als stabil überall erweisen. :tongue: Wenn nicht, auch nicht schlimm. Auf die letzten 1-2% kann ich bei einem guten Preis auch verzichten.
Uff... also mit 304W hat der XFX Swift Kühler schon ganz schön zu kämpfen, zumindest wenn es noch extrem leise bleiben soll. Das sind gleich +11°C mehr Hotspot nach einer langen Aufwärmphase vs. 260W. Da war ich mit meiner Schätzung völlig daneben.
https://i.postimg.cc/Cz9QC2b9/Forza-Horizon5-2025-08-08-10-59-07-647.jpg (https://postimg.cc/Cz9QC2b9)
Die Wärmeentwicklung im Gehäuse selbst merke ich auch direkt, deshalb mag ich auch kein ~300W Powerbudget bei Grafikkarten.
In FH5 mit 4k + FSR4 Quality reichen -55mV nicht ganz aus vs. Stock. Mit Fasttimings beim Vram passt es dann aber.
Stock:
https://i.postimg.cc/QHZ7pkH0/Forza-Horizon5-2025-08-08-11-04-55-274.jpg (https://postimg.cc/QHZ7pkH0)
Max. 260W mit -55mV:
https://i.postimg.cc/bZTFXw7f/Forza-Horizon5-2025-08-08-11-04-27-313.jpg (https://postimg.cc/bZTFXw7f)
Max. 260W mit -55mV + Fasttimings:
https://i.postimg.cc/mcKYKxgG/Forza-Horizon5-2025-08-08-11-05-38-574.jpg (https://postimg.cc/mcKYKxgG)
btw.
Von dem Undervolting bin ich jetzt aber ziemlich baff. Ich stelle im Treiber -55mV ein und es werden sogar ganze ~73mV abgesenkt? WTF? :D Ich hätte eher was von -20-25mV in dem Frequenzbereich erwartet. Ich schaue mir das später noch genauer an und nicht nur in einer Momentaufnahme.
Hakim
2025-08-08, 11:24:14
Kein minus Offset Takt mehr?
dargo
2025-08-08, 11:30:09
Erstmal nicht da ich den Kühler teste. :) Der Taktoffset ist aber eh mehr oder weniger Gimmick da man damit nicht unter ~2,8xGhz kommt. Will ich tiefer muss ich mit dem Powerbudget weiter runter. Nur limitiert dann nicht der Takt sondern eben die Power. Die max. -500Mhz im Treiber sind eher ein Joker. Zeigt zwar Wirkung (also Taktlimit), aber nur in Games die recht wenig heizen.
Der_Korken
2025-08-08, 12:19:15
@Korken
Reicht dir das?
93842
Habe TLOU2 mit Stock Settings gemessen. Angefangen mit +10% PT bis runter zu -30% PT in 10-er Schritten. Oder brauchst du 5-er Schritte?
Danke. Ich schmeiße das vielleicht heute abend mal in mein Skript rein, um zu gucken, ob man da was klares sieht.
Uff... also mit 304W hat der XFX Swift Kühler schon ganz schön zu kämpfen, zumindest wenn es noch extrem leise bleiben soll. Das sind gleich +11°C mehr Hotspot nach einer langen Aufwärmphase vs. 260W. Da war ich mir meiner Schätzung völlig daneben.
Bei viel Heizung steigt imho die Differenz zwischen Edge und Hotspot, was bei höheren PTs zusätzlich zur generell größeren Wärmemenge dann ordentlich auf die Hotspot-Temps haut.
Von dem Undervolting bin ich jetzt aber ziemlich baff. Ich stelle im Treiber -55mV ein und es werden sogar ganze ~73mV abgesenkt? WTF? :D Ich hätte eher was von -20-25mV in dem Frequenzbereich erwartet. Ich schaue mir das später noch genauer an und nicht nur in einer Momentaufnahme.
Wenn du mit UV fertig bist (d.h. nicht heute sondern irgendwann), kannst du ja noch ein Log erstellen, dann kann man genauer sehen, wie groß das "echte" UV ist. Bei mir kam damals raus, dass -70mV im Treiber zu ca. -65mV ingame führen.
dargo
2025-08-08, 12:31:45
Bei viel Heizung steigt imho die Differenz zwischen Edge und Hotspot, was bei höheren PTs zusätzlich zur generell größeren Wärmemenge dann ordentlich auf die Hotspot-Temps haut.
Schon klar da mehr Wärmedichte, aber viel ändert sich in FH5 nicht. Von 15°C Delta gehts auf 19°C Delta hoch. 260W vs. 304W. Das "Hauptproblem" ist bei mir, dass die hohe Abwärme von 304W nicht schnell genug aus dem Gehäuse abtransportiert wird. Meine Gehäuselüfter sind halt auf absolut silent konfiguriert. Und das soll auch so bleiben. :) HWU hatte 79°C Hotspot mit 1.100RPM bei der Swift @304W in denen Gehäuse erreicht, ich komme auf bis zu 87°C bei gleichen RPM. Bei mir sind es aber heute 24,4°C im Raum.
Danke. Ich schmeiße das vielleicht heute abend mal in mein Skript rein, um zu gucken, ob man da was klares sieht.
Sollte die V/F-Kurve nicht linear verlaufen kann ich noch 5-er Schritte nachreichen für mehr Genauigkeit. Ich finde eine nahezu lineare V/F-Kurve eh etwas seltsam. Hatten wir sowas schon jemals? Habe da dein Bild noch in Erinnerung.
Edit:
@Horni.
Hellblade 2 (ebenfalls UE5) nach Aufwärmphase ... easy, zumindest @260W.
4k + FSR4 balanced mit -55mV:
https://i.postimg.cc/FfX5ZjPZ/Hellblade2-Win64-Shipping-2025-08-08-13-03-15-539.jpg (https://postimg.cc/FfX5ZjPZ)
Mit FSR4 Performance waren es knapp 2,9Ghz.
robbitop
2025-08-08, 16:53:07
Wie groß ist in der Praxis die Steigerung ggü deiner 6800xt eigentlich grob bis dato? :)
dargo
2025-08-08, 17:03:49
Keine Ahnung, auf sowas achte ich nicht speziell. :) Grob würde ich 50-60% schätzen. Lässt sich eh schwer beantworten da bei RT mehr passiert ist. Ich würde grob schätzen ca. 50% bei Raster und sobald ich etwas RT mitnehme entsprechend mehr.
btw.
Mir fällt gerade ein... die Rechnung wird noch komplizierter da FSR4 etwas teurer als FSR2.x/3.x ist. :D Bin gespannt ob AMD mit Redstone beim Upscaling Overhead noch was rausholen kann oder einfach die Hardware beim Upscaling noch zu stark limitiert. Allerdings vergleiche ich hier N48 FSR2.x/3.x vs. FSR4 und nicht N21 FSR2.x/3.x vs. FSR4 @N48. Insofern auch etwas Äpfel/Birnen.
dargo
2025-08-08, 22:42:18
Hier mal zum Vergleich max. 304W mit offenen Seitenwand vom Gehäuse bei ebenfalls 1.130RPM Lüfter nach einer Aufwärmphase.
4k + FSR4 Quality mit -55mV:
https://i.postimg.cc/4nzfwThq/Forza-Horizon5-2025-08-08-23-53-05-664.jpg (https://postimg.cc/4nzfwThq)
6°C weniger bei GPU und 2°C weniger bei CPU. Soo super schlecht ist also meine Gehäusebelüftung jetzt auch nicht. :)
Edit:
@Korken
Hier die Swift XT in gleicher TLOU2 Szene mit -50mV wieder in 10-er Schritten.
93845
dargo
2025-08-09, 10:39:01
Wie ist denn eigentlich der aktuelle Stand zur Zuverlässigkeit von Alt+R im Bereich Wattman wenn ein Spiel im Hintergrund läuft? Ich frage deshalb weil mich eine Sache hier stutzig macht. Mir ist CP77 mit -60mV einmal gecrasht mit Treiber Timeout. Dabei hatte ich aber Ingame den Treiber mit Alt+R aufgerufen und den Voltage Offset auf -60mV gestellt. Jetzt läuft aber CP77 selbst mit -100mV lange Zeit stabil. Nur hatte ich diesmal die -100mV nicht Ingame eingestellt sondern vor dem Spielstart auf dem Desktop. Zufall? Oder ist der Wattman tatsächlich Ingame noch etwas buggy?
Sollten die -100mV tatsächlich wirklich hier funktionieren (was ich über alle Spiele nicht glaube :D) wäre das schon sehr nice.
4k + FSR4 Quality Stock @max. 304W:
https://i.postimg.cc/ftQj6gxH/Cyberpunk2077-2025-08-08-10-20-52-328-Stock.jpg (https://postimg.cc/ftQj6gxH)
4k + FSR4 Quality @max. 240W mit -100mV und Fasttimings:
https://i.postimg.cc/RqRQDdqR/Cyberpunk2077-2025-08-09-10-18-37-07-240-W-100m-V.jpg (https://postimg.cc/RqRQDdqR)
Edit:
Hat sich erledigt... war reiner Zufall. Die -100mV sind definitiv nicht stabil, gerade Game Crash damit gehabt obwohl Ingame Alt+R nicht aufgerufen um im Wattman rumzuspielen.
HTB|Bladerunner
2025-08-09, 12:00:16
Um das Undervolting auszuloten nutze ich noch immer den (normalen) 3DMark Wildlife Stresstest. Durch das CPU-Limit ist das ein ständiges auf und ab mit den GPU-Taktraten bzw. der Auslastung. Nach 20 Durchläufen hat man definitiv ein sehr stabiles Setting gefunden.
dargo
2025-08-09, 13:16:22
Haha... ich lag mit meiner Vermutung richtig.
Da Korken scheinbar aktuell keine Zeit für sein Script hat habe ich ein wenig mit CapFrameX getestet. Die tatsächliche Größe der Absenkung bei der real anliegenden Spannung ist abhängig vom Powerlimit und verläuft scheinbar auch nicht linear mit dem Wert im Slider vom Treiber. Unter anderem deshalb hatte ich von Anfang an auch gesagt, dass reine Werte aus dem Treiber absolut nichtssagend sind.
Habe für den Vergleich den CP77 Benchmark genommen da der sehr gut reproduzierbar ist. Gemessen wurden in 4k + FSR4 Quality (CDPR-Implementierung) mit zwei UV-Settings die exakt die gleiche Performance liefern wie Stock @304W. Bei den UV-Settings behelfe ich mir mit Fasttimings noch ganz minimal. Ist aber nicht viel, damit gleiche ich fehlende ca. 30Mhz GPU-Takt nur aus.
Stock @max. 304W:
https://i.postimg.cc/H8LQ1JLx/CX-2025-08-09-13-07-22-Sensor.png (https://postimg.cc/H8LQ1JLx)
-55mV @max. 260W + Fasttimings:
https://i.postimg.cc/nXq95K12/CX-2025-08-09-13-11-05-Sensor.png (https://postimg.cc/nXq95K12)
-80mV @max. 250W + Fasttimings:
https://i.postimg.cc/cv76Txs5/CX-2025-08-09-13-11-43-Sensor.png (https://postimg.cc/cv76Txs5)
Bei -55mV im Treiber und max. 260W werden gleich ganze 80mV abgesenkt, bei -80mV und max. 250W sogar 98mV.
Zusammengefasst...
-55mV/260W = 45,45% Abweichung bei der real anliegenden Spannungsabsenkung
-80mV/250W = 22,50% Abweichung bei der real anliegenden Spannungsabsenkung
Ich schaue gleich noch nach wie es mit -80mV/260W aussieht und -55mV/250W.
Edit:
-80mV @max. 260W + Fasttimings:
https://i.postimg.cc/TKT5zLHX/CX-2025-08-09-13-35-16-Sensor.png (https://postimg.cc/TKT5zLHX)
-55mV @max. 250W + Fasttimings:
https://i.postimg.cc/R3D3JPCM/CX-2025-08-09-13-37-15-Sensor.png (https://postimg.cc/R3D3JPCM)
Diesmal entsprechen die -80mV im Treiberslider bei max. 260W exakt 80mV weniger real anliegende Spannung vs. Stock. Bei -55mV und max. 250W werden diesmal real ganze 95mV abgesenkt.
Zusammengefasst...
-80mV/260W = Punktlandung bei der real anliegenden Spannungsabsenkung
-55mV/250W = 72,27% Abweichung bei der real anliegenden Spannungsabsenkung
Der_Korken
2025-08-09, 13:42:02
Immer mit der Ruhe :D
Habe es gestern nicht mehr geschafft, dafür habe ich den Plot etwas geupgraded, damit man dort mehr sieht und der Plot interaktiv ist. Format ist HMTL, d.h. ihr müsst die Datei runterladen, entzippen und im Browser öffnen. Man kann mit Linksklick und Linksclick+Shift in der Legende User und UV-Offset ausblenden. Leider springt die Auswahl in der einen Rubrik oft wieder zurück, wenn man in der anderen einen Shift-Click macht. Warum weiß ich nicht, sieht für mich wie ein Bug im Plot-Builder (Altair) aus.
Bei deinen Datenpunkten @dargo sieht man leider nicht viel, weil die Punkte sehr verteilt sind. Eventuell musst du zwischen den Änderungen länger an einem Fleck stehen, denn beim Rein- und Raustabben kommen immer ein paar "kaputte" Datenpunkte mit rein. Deswegen hatte ich vorgeschlagen einfach eine Session mitzuloggen, wo du eigentlich was anderes testest. Da hast du dann zwar nicht verschiedene Powerlimits drin, aber die Punkte sollten sich stark dort konzentrieren, wo die V/f-Kurve ist.
dargo
2025-08-09, 13:48:53
Hast du jetzt alle Werte von mir genommen? Ich dachte du nimmst nur die plausiblen. Normalerweise sieht man sofort, dass eine Frequenz zum PT überhaupt nicht passt. Sonst liegen die jeweiligen Frequenzen ja sehr nah beieinander im jeweiligen Powerlimit.
Edit:
Sowas hier zb. bitte komplett ignorieren.
2025-08-09 08:23:43 , 93.0 , 46.0 , 0.633 ,
2025-08-09 08:23:44 , 534.0 , 56.0 , 0.271 ,
2025-08-09 08:23:45 , 2943.0 , 282.0 , 0.983 ,
2025-08-09 08:23:46 , 2908.0 , 294.0 , 1.011 ,
2025-08-09 08:23:47 , 2898.0 , 311.0 , 1.038 ,
2025-08-09 08:23:48 , 2884.0 , 319.0 , 1.055 ,
2025-08-09 08:23:49 , 2880.0 , 320.0 , 1.052 ,
2025-08-09 08:23:50 , 2882.0 , 316.0 , 1.045 ,
2025-08-09 08:23:51 , 2892.0 , 318.0 , 1.047 ,
Bei den ersten beiden Sekunden war ich noch auf dem Desktop um die Log-File Aufzeichnung zu aktivieren. Wäre auch zuviel verlangt, dass GPU-Z dafür einen Hotkey bietet. Die anderen Werte ebenfalls ignorieren, da war die GPU noch nicht warm genug mit +10% PT. Erst ab 287xMhz gehts los. :)
Der_Korken
2025-08-09, 13:58:37
Ich hatte meine Punkte bei den alten Plots anhand der GPU-Auslastung gefiltert: Wenn die unter 99% liegt, dann sind die Datenpunkte fast sicher Schrott. Das hatte ich dir leider vergessen zu sagen bzw. ich hab nicht dran gedacht als ich meinen Post geschrieben habe. Abgesehen davon ist aber interessant: Bei deinen Punkten gibt es irgendwie zwei Gruppen: Die 210W-, 240W- und 270W-Wolken liegen auf einer Geraden und die 300W- und 330W-Wolken auf einer anderen. Fast so als würde unterhalb von 300W automatisch etwas undervoltet.
dargo
2025-08-09, 14:27:39
Jetzt wo ich meine Werte so sehe...
-55mV/250W = 864mV real
-80mV/250W = 861mV real
-55mV/260W = 879mV real
-80mV/260W = 879mV real
Blickt da jemand mathematisch korrekt durch? ;D Das sind so Momente wo ich wieder MPT vermisse. :usad:
Der_Korken
2025-08-09, 14:53:48
Ich vermute, dass der UV-Slider bei dir kaputt ist. Er legt nicht die Werte an, die du einstellst bzw. er kommt zwischendurch durcheinander. Ich habe damals aus Anfangszeiten von N48 so eine Story im Kopf, dass jemand den Takt-Offset runtergesetzt auf -500, dieser sich aus irgendeinem Grund wieder auf 0 zurückgesetzt hat (durch Reboot oder Treiber-Reset, ich weiß es leider nicht mehr), aber trotzdem die -500Mhz noch aktiv waren. Das heißt, er konnte dann nochmal auf -500Mhz stellen, sodass es effektiv dann -1000Mhz waren. Das war aber nur schwer oder sehr umständlich reproduzierbar. Eventuell "spinnt" der UV-Slider bei dir auch, sodass er manchmal eine "0" als irgendeinen zuvor verwendeten UV-Offset interpretiert oder einen negativen Offset als Null, sodass bei einzelnen Testreihen die Spannung verschoben ist. Schau dir in meinem Plot mal deine Datenreihe nur mit -50mV an. Da sind 5 deutlich sichbare Punktwolken, aber oberhalb von 270W steigt quasi nur noch die Spannung, aber nicht der Takt (er sinkt sogar :freak:).
Bezüglich der Ausreißer: Alles unter 2000Mhz und 700mV ist ohnehin gefiltert. Die vielen Ausreißer bei deiner -0mV-Reihe kriege ich aber nicht gut weg, weil sie zwar weit von anderen Punkten entfernt sind, aber die Werte nicht so unplausibel, dass es offensichtlich ist. Ich würde sie erstmal drinlassen, da man auch dort deine 5 PTs noch halbwegs erkennen kann.
Edit: Falls du noch was loggen solltest, nimm die GPU-Load mit rein. Die ist ein sehr guter Filter für hinterher.
dargo
2025-08-09, 16:06:25
Neuer Versuch mit A Plague Tale: Requiem und jetzt auch GPU-Load.
93853
93854
Sieht für mich alles recht plausibel auf den ersten Blick aus. Eine Sache stimmt aber dann doch nicht. Der Takt geht bei >100% PT (hier also bei 110%) nicht hoch vs. 100% obwohl die Spannung höher liegt und der Verbrauch auch mit 334W passt. Sind ja immerhin 30 Watt mehr die die Karte saufen darf. Der Takt geht sogar minimal runter. WTF? :D Was ich auch etwas merkwürdig finde. Bei 304W gewinne ich ca. 100Mhz obwohl die Spannung bei -50mV tatsächlich nur um ca. 10mV fällt? So ganz logisch klingt das für mich nicht. :freak:
@Korken
Ich habe mir das kuriose Verhalten vom Takt vs. PT vs. Spannung bei >100% PT in CP77 mit CapFrameX angesehen. Aktuell mit Stock Settings und hier sieht alles plausibel aus. Bei 110% PT gibt es mehr Spannung, mehr Takt und entsprechend auch minimal mehr Performance.
PT 100%:
https://i.postimg.cc/64Gs9fzb/CX-2025-08-09-16-24-19-Sensor.png (https://postimg.cc/64Gs9fzb)
PT 110%:
https://i.postimg.cc/jw100F6J/CX-2025-08-09-16-24-14-Sensor.png (https://postimg.cc/jw100F6J)
Also entweder zeigt GPU-Z falsche Freqeunzen an oder was ich eher vermute... durch den Switsch auf den Desktop und wieder zurück kommt die Telemetrie, Datenerfassung oder weiß der Geier was durcheinander. Sprich... Treiberbug. Wir sollten dringend von der Messmethode mit GPU-Z wegkommen. Ich schaue mir gleich noch an ob die Werte mit -50mV in CP77 und CapFrameX auch plausibel sind.
Edit:
Lol... beim Stock Spannungsoffset sieht CP77 normal aus. Beim negativen Spannungsoffset (habe jetzt -80mV genommen da bei -50mV sich fast nichts real an der Spannung geändert hat) stimmt wieder nix bei >100% PT. ;D
PT 100% mit -80mV:
https://i.postimg.cc/QVpGn09V/CX-2025-08-09-16-52-19-Sensor.png (https://postimg.cc/QVpGn09V)
PT 110% mit -80mV:
https://i.postimg.cc/hhqPjJVz/CX-2025-08-09-16-53-42-Sensor.png (https://postimg.cc/hhqPjJVz)
Keine Ahnung woran das liegt. Ich will da aber auch nicht zu viel Freizeit investieren um dem nachzugehen da mich diese hohen Powerlimits eh nicht interessieren. Für mich spielt die Musik im Bereich von 250-260W. :) Vielleicht muss die Telemetrie früher drosseln durch zu hohe Spannungsspitzen, immerhin war der max. Wert mit -80mV und 110% PT schon bei 1022mV und 349W. Ich weiß es einfach nicht.
Der_Korken
2025-08-09, 17:23:18
Ich habe auch nochmal meine alten Settings reproduziert (Witcher 3), allerdings nur stock weil zu faul für UV :D.
Die Kurve sieht ziemlich genauso aus wie vorher. Nur bei dir ist die Anomalie vorhanden mit den hohen PTs. Bitte beachten, dass unter dem Plot jetzt noch eine Auswahl für die Treiber-Version ist. Neue Version ist im Anhang.
Am liebsten würde ich die ganzen Filter rechts in die Legende packen, aber ich habe noch nicht rausgefunden ob oder wie das geht, wenn die entsprechenden Kategorien nicht als Farbe oder Form genutzt werden. Für Altari gibt es zwar viele Beispiele, aber leider nicht das, was ich gern hätte.
Edit: Achso wegen GPU-Z: Mir ist wurscht, womit geloggt wird, solange es eine maschinenlesbare CSV-Datei erzeugt. Bei mir scheint es aber keine Probleme zu geben mit GPU-Z.
dargo
2025-08-09, 17:41:00
Das ist auch zu geil... bei einem PT von max. 250W bedeuten -100mV im Treiber bei mir real -20mV. :D Umso erstaunlicher, dass diese mickrigen 20mV weniger gleich 200+Mhz GPU-Takt freimachen. :freak:
Stock V/F-Kurve:
https://i.postimg.cc/v1f7rgTg/Ghost-Of-Tsushima-2025-08-09-17-33-55-134.jpg (https://postimg.cc/v1f7rgTg)
-100mV im Treiber:
https://i.postimg.cc/zHXnYxjK/Ghost-Of-Tsushima-2025-08-09-17-34-34-246.jpg (https://postimg.cc/zHXnYxjK)
PS: im Raum wirds jeden Tag wärmer. Aktuell 25,4°C. :freak:
Edit:
Jetzt wirds richtig interessant. :naughty: Sowas kann man nur herausfinden wenn man eine RDNA4 Grafikkarte im Rechner hat. :)
Erstmal bevor es losgeht habe ich mir noch ein weiteres Game als Vergleich angeschaut und zwar APTR. Auch hier bedeuten bei -100mV im Treiber @max. 250W real -20mV und 200+Mhz.
Stock V/F-Kurve:
https://i.postimg.cc/mPD1Zc7f/APlague-Tale-Requiem-x64-2025-08-09-17-52-09-336.jpg (https://postimg.cc/mPD1Zc7f)
-100mV im Treiber:
https://i.postimg.cc/wtRtJSWw/APlague-Tale-Requiem-x64-2025-08-09-17-52-42-742.jpg (https://postimg.cc/wtRtJSWw)
Jetzt zum Wesentlichen. Ich kam erst darauf mit TLOU2. Wie sicherlich schon bekannt heizt TLOU2 etwas weniger als viele andere Games. Dh. bei UV sind die max. Taktspitzen (viele Taktspitzen sehen wir gar nicht, wir sehen nur den Schnitt von Taktspitzen und Takttälern im Schnitt einer Sekunde) schon zu hoch je nach Setting was dann eben zum Crash führt. Die -100mV @max. 250W führten bei mir in einem bestimmten Blickwinkel in TLOU2 zu einem Crash. Das liegt daran, dass durch die niedrigere Heizlast die GPU versucht extrem hohe Taktraten in dieser speziellen Szene zu boosten. Beim Crash hatte ich 3022Mhz noch sehen können. Hier kommt also der negative Taktoffset ins Spiel um das abzufangen. Ich habe jetzt mal pauschal -350Mhz genommen um grob max. 3Ghz auch in der Spitze nicht zu überschreiten. Der Vorteil... der negative Taktoffset wirkt sich nur bei Games mit eher niedrigen Heizlast aus da sich dieser Wert afaik auf den maximalen Boost von 3350Mhz (oder so ähnlich) bezieht. Soll heißen... in vielen Games greift der gar nicht wo er eben nicht muss. Das sieht folgendermaßen aus in TLOU2.
Stock V/F-Kurve:
https://i.postimg.cc/1f4NsnGx/tlou-ii-2025-08-09-18-30-53-639.jpg (https://postimg.cc/1f4NsnGx)
-100mV und -250Mhz im Treiber:
https://i.postimg.cc/YGphVhrs/tlou-ii-2025-08-09-18-31-32-937.jpg (https://postimg.cc/YGphVhrs)
-100mV und -350Mhz im Treiber:
https://i.postimg.cc/BPbtSk15/tlou-ii-2025-08-09-18-32-11-865.jpg (https://postimg.cc/BPbtSk15)
Jetzt ist mir hier auch aufgefallen, dass der negative Taktoffset ebenfalls die real anliegende Spannung senkt. Wurde das hier schon mal erwähnt? Für mich ist das neu.
Das ist echt cool mit der neuen Erkenntnis, zumindest für mich. Denn jetzt fühlt sich RDNA4 schon beinah wie RDNA2 an beim UV, so ganz ohne MPT. :tongue: Trotz 250W Powerlimit gibts immer wieder mal weniger Verbrauch dank Taktlimit.
https://i.postimg.cc/3yWLjbxN/Ghost-Of-Tsushima-2025-08-09-19-08-54-931.jpg (https://postimg.cc/3yWLjbxN)
Stabilität muss natürlich noch ausgiebig getestet werden.
dargo
2025-08-09, 19:33:22
Geil... wenn sich das bewährt muss ich mich wohl demnächst bei ca. 240W neu ausrichten da ich jetzt minimal schneller bin als Stock in CP77 mit diesem UV. :D
Stock:
https://i.postimg.cc/H8LQ1JLx/CX-2025-08-09-13-07-22-Sensor.png (https://postimg.cc/H8LQ1JLx) https://i.postimg.cc/ftQj6gxH/Cyberpunk2077-2025-08-08-10-20-52-328-Stock.jpg (https://postimg.cc/ftQj6gxH)
-100mV, -350Mhz @max. 250W + Fasttimings:
https://i.postimg.cc/6TRYWvP7/CX-2025-08-09-19-25-08-Sensor.png (https://postimg.cc/6TRYWvP7) https://i.postimg.cc/Y45YZXMd/Cyberpunk2077-2025-08-09-19-20-22-314.jpg (https://postimg.cc/Y45YZXMd)
Apropo Taktlimit...
HZD: Remastered. :up:
https://i.postimg.cc/QVYDgvmG/Horizon-Zero-Dawn-Remastered-2025-08-09-20-04-33-018.jpg (https://postimg.cc/QVYDgvmG)
Edit:
Das sieht bisher überall sehr gut aus. =)
Stock:
https://i.postimg.cc/47pppjjz/Hellblade2-Win64-Shipping-2025-08-09-21-36-22-119.jpg (https://postimg.cc/47pppjjz)
-100mV, -500Mhz @max. 250W:
https://i.postimg.cc/m1RCj8GK/Hellblade2-Win64-Shipping-2025-08-09-21-37-33-844.jpg (https://postimg.cc/m1RCj8GK)
Spring
2025-08-09, 21:51:10
Ich hab auch ne Weile mit -mV und +/- MHz rumgespielt, aber iwo wars dann doch nach paar h Playtime unstable oder ging den einen Tag so perfekt und am nächsten Tag mit gleichen Settings dann doch wieder net.
Hab jetzt im Alltag -30% PT und Lüfterkurve angepasst natürlich und wenns mal bissl mehr sein darf dann halt PT 0-10% (ergo bis zu 363W, bei der dicken XFX Karte np + 8 Gehäuselüfter).
Aber eigentlich läuft sie zu über 90% der Zeit mit PT -30% und gut ist.
Teste mal weiter rum, vllt findest ja noch was Endzeit stabiles^^
dargo
2025-08-09, 23:19:18
Hast du denn darauf geachtet die Taktspitzen unter Kontrolle zu halten? Ich meine damit nicht unbedingt die Spitzen die dir jegliches, viel zu lahmes Overlay anzeigt. :) Wenn das Overlay als Beispiel 3Ghz kurz anzeigt dann liegen die Spitzen wesentlich höher. Das führt dann zu diesen Crashes ohne ein Taktoffset beim Undervolting. Und solche Taktspitzen können immer wieder mal auftauschen. Da reicht schon Ingame in Szene XYZ ein Flaschenhals, zb. durch CPU und schon versucht die GPU sehr hoch zu takten. Hier mal ein Beispiel aus TLOU1 mit 4k + FSR4 balanced mit -350Mhz Offset. Die Karte liegt damit voll im Taktlimit mit 205W da sie bis zu 250W saufen darf.
https://i.postimg.cc/YLSHBBN7/tlou-i-2025-08-09-23-09-10-286.jpg (https://postimg.cc/YLSHBBN7)
Würde ich hier kein Taktoffset setzen würde die GPU versuchen auf locker 3,1+Ghz zu boosten. In TLOU1 hat übrigens -100mV und -350Mhz bei max. 250W nicht ganz ausgereicht. In der Szene wo das Mädchen das Telefon abnimmt ist mir das Game jedes Mal reproduzierbar gecrasht. -95mV und -350Mhz passen dann wieder. Was ich ab jetzt auch verwenden werde um weiter quer über mehrere Games das Setting zu testen.
Hab es auch erstmal aufgegeben, nachdem es ne Weile mit -50mV und -400 MHz scheinbar stabil lief. Dann kam doch wieder irgendeine Instabilität und ich hatte keine Lust mehr zu rätseln, woran das nun wieder lag. 260W PT und gut.
Habe zusätzlich den Windows (11) Grey Screen Bug, dessen Häufigkeit ich scheinbar mit dem MPO Registry Fix extrem reduzieren konnte.
[HKEY_LOCAL_MACHINE\SOFTWARE\Microsoft\Windows\Dwm]
"OverlayMinFPS"=dword:00000000
aufkrawall
2025-08-09, 23:35:52
Hast du denn darauf geachtet die Taktspitzen unter Kontrolle zu halten? Ich meine damit nicht unbedingt die Spitzen die dir jegliches, viel zu lahmes Overlay anzeigt. :) Wenn das Overlay als Beispiel 3Ghz kurz anzeigt dann liegen die Spitzen wesentlich höher. Das führt dann zu diesen Crashes ohne ein Taktoffset beim Undervolting. Und solche Taktspitzen können immer wieder mal auftauschen.
-500MHz Offset hatten hier rein gar nichts gegen die Instabilität gebracht. Es crasht nur einfach extrem random, mitunter noch nach Wochen.
Gibt hier ja mittlerweile auch genug andere Stimmen in die Richtung.
phoenix887
2025-08-10, 03:49:51
Mache in der Richtung auch nichts mehr. Wer sich PC Hardware leisten kann, wird auch die paar Watt Unterschied verkraften die man per UV einsparen kann, zumal man wahrscheinlich sowieso arbeiten geht und nicht jeden Tag vorm PC hockt zum zocken. Wenn dann Zeit ist, will man zocken und nicht irgendwelchen Sweetspot suchen, der dann doch wieder Instabil ist.
Meine Meinung.
RoughNeck
2025-08-10, 06:05:19
Ich denke nicht dass es dargo primär um den Verbrauch sondern eher um die Lautstärke geht.
Ich mag auch lieber leise PC, meiner ist in jeder Lebenslage leise, der von meiner Frau auch und wenn ich einen Rechner für einen Freund / Bekannten zusammenstelle, dann verlässt mich der Rechner auch leise.
Ich suche allerdings nicht das max UV Setting, dass kann dann der Besitzer tun wenn er will. Ich stell die Rechner immer so ein als wären die meine eigenen, hat bis jetzt immer funktioniert und es gab noch einen dessen UV Setting instabil war.
Für mich ist es ein Unding wenn ein PC oder eine Komponente auf sich aufmerksam macht, weil Hersteller XY keine Vernünftige Lüfterkurve hinbekommt.
dargo
2025-08-10, 07:12:56
Ich denke nicht dass es dargo primär um den Verbrauch sondern eher um die Lautstärke geht.
Korrekt... ich mags "kühl" bzw. nicht zu nah an der Kotzgrenze und nach Möglichkeit nicht hörbar. :) Deshalb richte ich den Verbrauch immer nach der Kühlerperformance aus.
Wenn dann Zeit ist, will man zocken und nicht irgendwelchen Sweetspot suchen, der dann doch wieder Instabil ist.
Man kann auch wunderbar beides verknüpfen. :) Das "Problem" ist aktuell eh, dass ich keine neuen Spiele für die RX 9070XT habe. Nüchtern betrachtet zu früh gekauft, der Preis stimmte halt endlich. Ergo finde ich aktuell das Suchen des besten Settings im "Sweetspot" spannender als jegliche Games.
-500MHz Offset hatten hier rein gar nichts gegen die Instabilität gebracht. Es crasht nur einfach extrem random, mitunter noch nach Wochen.
Gibt hier ja mittlerweile auch genug andere Stimmen in die Richtung.
Treiber entwickeln sich mit der Zeit weiter. Diese Stimmen hatten ergo womöglich im "Early Access" Zeitrahmen getestet. Das ist übrigens mit ein Grund warum ich sehr ungern direkt zum Release kaufe, selbst wenn der Preis stimmt. Die Treiberpakete sind mittlerweile extrem aufgeblasen. Sowas braucht viele Monate Hirnschmalz bis alles absolut fehlerfrei läuft. Und dennoch reifen viele Sachen noch bei den Konsumenten. Was irgendwo auch verständlich ist. Die Userbasis ist um ein vielfaches größer als in den eigenen "Testlabors". Man muss sich nur mal den Verlauf von Intel bei dGPUs anschauen wieviel Arbeit das bedeutet. Wenn man nahezu bei Null anfängt dauert es Jahre.
Habe zusätzlich den Windows (11) Grey Screen Bug, dessen Häufigkeit ich scheinbar mit dem MPO Registry Fix extrem reduzieren konnte.
[HKEY_LOCAL_MACHINE\SOFTWARE\Microsoft\Windows\Dwm]
"OverlayMinFPS"=dword:00000000
Was für Grey Screen Bug? Sowas noch nicht gesehen hier.
Edit:
Hier mal ein Beispiel wie ich beim UV vorgehe, aktuell mit Ratchet & Clank. :)
In dieser Szene bewege ich mich mit dem Char zur Konsole.
https://i.postimg.cc/bDC7P8Xp/Rift-Apart-2025-08-10-08-19-11-397.jpg (https://postimg.cc/bDC7P8Xp)
Daraufhin folgt eine Cutszene. Mit meinen -95mV und -350Mhz crasht das hier reproduzierbar. Wichtig bei sowas ist immer, dass man sich diese Szene manuell abspeichert (ich weiß... viele Games bieten solch eine Option nicht was bei solchen Sachen vollkommen nervig ist) um sie immer wieder von vorne abspielen zu können. Ich habe mir mit -40mV und -350Mhz ein, ich nenne es mal "Safeprofil", erstellt. Damit läuft die Cutzene fehlerfrei durch. Man kann natürlich auch mit Stocksettings gegen testen. Nach diesem Schema ist es eigentlich ein Kinderspiel das passende UV-Setting für die eigene Silikonlotterie zu finden. Also random passiert hier zumindest gar nichts. Ich habe immer die real anliegende Frequenz und Spannung im Blick und sehe dauerhaft was passiert wenn ich an den UV-Settings drehe. Alles bis jetzt völlig nachvollziehbar.
phoenix887
2025-08-10, 09:06:23
Ich denke nicht dass es dargo primär um den Verbrauch sondern eher um die Lautstärke geht.
Ich mag auch lieber leise PC, meiner ist in jeder Lebenslage leise, der von meiner Frau auch und wenn ich einen Rechner für einen Freund / Bekannten zusammenstelle, dann verlässt mich der Rechner auch leise.
Ich suche allerdings nicht das max UV Setting, dass kann dann der Besitzer tun wenn er will. Ich stell die Rechner immer so ein als wären die meine eigenen, hat bis jetzt immer funktioniert und es gab noch einen dessen UV Setting instabil war.
Für mich ist es ein Unding wenn ein PC oder eine Komponente auf sich aufmerksam macht, weil Hersteller XY keine Vernünftige Lüfterkurve hinbekommt.
Dann bin ich wahrscheinlich nicht so empfindlich, meine 9070 Non XT Asus Prime ist mir unter Vollast, leise genug, wird nicht mal wärmer als 70 Grad, restliche Gehäuselüfter im BIOS über ne Kruve eingestellt.
Idle sogar Lautlos, alles in in ein paar Minuten gemacht, ohne Doktorarbeit UV.
dargo
2025-08-10, 09:26:48
Leise genug definiert jeder anders. Und eine non XT hat keine 300W als Basis, ganz andere Anforderung an den Kühler für extrem leise eben. Deshalb ist auch mein favorisiertes Powerbudget max. 250W, egal welche Grafikkarte.
RoughNeck
2025-08-10, 09:29:27
Doktorarbeit mach ich auch nicht.
Meine 5090 hab ich in unter 2 Minuten eingestellt und seitdem läuft die so, gibt genügend Anleitungen auf Youtube. Ich such mir halt nicht irgendein Hardcore Setting aus was auf einer von z.B. 10 Karten stabil ist, ich such mir Durchschnittswerte raus. Ob ich dann bei der 5090 noch 10 - 15W herausholen könnte, ist mir persönlich egal, dafür fehlt mir dann die Lust und auch die Zeit.
Ich mach das so seit der GeForce 700 bzw. AMD Vega und bis jetzt gab es nie Probleme mit irgendeinen UV Setting, auch bei den CPUs nicht, den 13 und 14er Intel Müll mal außen vor. Ich achte bei den Rechnern die ich zusammenstelle immer auf guten Airflow, dann ist UV umso leichter und Lüfter können potenziell langsamer drehen, ist alles kein Hexenwerk.
dargo
2025-08-10, 09:58:49
Ich weiß jetzt nicht ob das jedem bekannt ist, ich poste es mal trotzdem. Der Grund warum die reale Spannung bei UV nicht dem Wert im Treiber in der Regel 1:1 entspricht ist das Eingreifen vom Powerlimit welches wiederum die Frequenzen je nach Gaminglast entsprechend regelt. Niedriges, negatives Vcore Offset führt ja logischerweise zu weniger Boost als ein höheres, negatives Offset. Sollte jedem klar sein. Und an jedem Boostclock hängt die entsprechende Vcore dran. Hier mal ein Beispiel mit CP77 in 30mV Schritten vom Treiber bei immer gleichen max. 250W.
-40mV, -350Mhz:
https://i.postimg.cc/877qSsN5/CX-2025-08-10-09-53-40-Sensor.png (https://postimg.cc/877qSsN5)
-70mV, -350Mhz:
https://i.postimg.cc/cKY2vjKG/CX-2025-08-10-09-54-56-Sensor.png (https://postimg.cc/cKY2vjKG)
-100mV, -350Mhz:
https://i.postimg.cc/Yj8VLQS0/CX-2025-08-10-09-55-31-Sensor.png (https://postimg.cc/Yj8VLQS0)
Alles völlig logisch. Einen höheren Unterschied in der real anliegenden Spannung würde man nur sehen wenn die Karte in ein Taktlimit rennen würde bzw. das Powerlimit sehr weit offen wäre.
PS: der negative Taktoffset greift in diesem Beispiel nicht ein da zu niedriger max. Boost bei dieser Gaminglast.
Edit:
Das einzig kuriose was bleibt ist das Verhalten bei 110% PT bei der XFX Swift XT. Selbst 110% PT mit -100mV ohne Taktoffset ist bei meiner Karte nicht zielführend da es minimal langsamer, trotz mehr Verbrauch ist als 100% PT mit -100mV ohne Taktoffset. Entweder ist das noch ein Treiberbug (ich kenne nur den 25.8.1) oder völlig normal da es beim Takt und somit der Spannung zu hohe Spitzen gibt was die Telemetrie wieder ausgleichen muss. Auf jeden Pick folgt ein Tal. Ich kenne jetzt nicht die Frequenz mit der AMD beim Boost arbeitet. Wenn aber jede 10ms der Boostclock wechselt passiert das 100x in einer Sekunde. Nur so als Beispiel um zu zeigen wie oft die Frequenzen und somit Spannungen in einer Sekunde wechseln.
Die Peaks und die darauf folgenden Täler bei einer RX 9070XT sind ja nicht ohne. Igor hat immerhin schon mal mit einem Intervall von 20ms gemessen.
https://www.igorslab.de/wp-content/uploads/2025/03/04a-Gaming-Power-2.png
Der_Korken
2025-08-10, 10:42:30
Das ist auch zu geil... bei einem PT von max. 250W bedeuten -100mV im Treiber bei mir real -20mV. :D Umso erstaunlicher, dass diese mickrigen 20mV weniger gleich 200+Mhz GPU-Takt freimachen. :freak:
Ich kann zumindest auf den ersten beiden Vergleichen nichts ungewöhnliches feststellen. Natürlich sinkt die Spannung trotz eingestellter -100mV nur um -20mV, wenn du den Takt nicht auf irgendeine Weise festpinnst (dass das ohne MPT nicht geht weiß ich, aber mir geht es ums Prinzip). Mit Taktlimit würde tatsächlich die Spannung um ca. 100mV sinken und somit auch massiv der Verbrauch. Da du aber durchgehend PT-limitiert bist, "füllt" die Karte das freigewordene Budget mit Takt auf, der wiederum mehr Spannung erfordert. Offensichtlich kosten die 200Mhz Takt etwa so viel wie 20mV Spannung einsparen.
Ich weiß jetzt nicht ob das jedem bekannt ist, ich poste es mal trotzdem. Der Grund warum die reale Spannung bei UV nicht dem Wert im Treiber in der Regel 1:1 entspricht ist das Eingreifen vom Powerlimit welches wiederum die Frequenzen je nach Gaminglast regelt. Niedriges, negatives Vcore Offset führt ja logischerweise zu weniger Boost als ein höheres, negatives Offset. Sollte jedem klar sein. Und an jedem Boostclock hängt die entsprechende Vcore dran. Hier mal ein Beispiel mit CP77 in 30mV Schritten vom Treiber bei immer gleichen max. 250W.
[...]
Alles völlig logisch. Einen höheren Unterschied in der real anliegenden Spannung würde man nur sehen wenn die Karte in ein Taktlimit rennen würde bzw. das Powerlimit sehr weit offen wäre.
Das Verhalten selber ist doch seit spätestens der RX470 nichts neues? Das einzige, was sich zu vorigen GPUs immer wieder ändert, ist die Art und Weise, wie man es im Treiber einstellen muss. Jetzt ist es eben so Ryzen-mäßig, wo man einen Offset für den maximalen Takt und einen Offset für die V/f-Kurve einstellt. Wenn ich Spannung senke, aber PT nicht, denn steigt der Takt.
Bei der RX5700 hat man z.B. einen maximalen, absoluten Takt und die zugehörige Spannung einstellt. Spannungs-Offset hat man da quasi genauso eingestellt wie jetzt (nur dass default nicht 0mV sondern irgendein Wert wie 1100mV ist). Nur Takt-Offset war etwas komplizierter, aber theoretisch genauso möglich.
Edit:
Das einzig kuriose was bleibt ist das Verhalten bei 110% PT bei der XFX Swift XT. Selbst 110% PT mit -100mV ohne Taktoffset ist bei meiner Karte nicht zielführend da es minimal langsamer, trotz mehr Verbrauch ist als 100% PT mit -100mV ohne Taktoffset.
Das ist tatsächlich die einzige Anomalie, für die ich keine Erklärung habe und die ich bei mir bisher nicht beobachtet habe.
dargo
2025-08-10, 10:57:01
Noch was zum max. Boostclock. Dieser beträgt 3450Mhz, bis zu diesem Wert darf die GPU maximal boosten.
93860
Bitte dabei beachten, dass OC-Modelle hier einen höheren Wert haben könnten, was für UV dann eher kontraproduktiv ist.
Und hier mal mit -350Mhz Taktoffset.
93861
Alles soweit korrekt. Bitte aber auch hierbei beachten, dass diesen Boost von 3,1Ghz kein lahmes Overlay anzeigen wird! Diese Werte beziehen sich auf die Peaks die mit der konventionellen Software nicht sichtbar sind.
Ich kann zumindest auf den ersten beiden Vergleichen nichts ungewöhnliches feststellen. Natürlich sinkt die Spannung trotz eingestellter -100mV nur um -20mV, wenn du den Takt nicht auf irgendeine Weise festpinnst (dass das ohne MPT nicht geht weiß ich, aber mir geht es ums Prinzip). Mit Taktlimit würde tatsächlich die Spannung um ca. 100mV sinken und somit auch massiv der Verbrauch. Da du aber durchgehend PT-limitiert bist, "füllt" die Karte das freigewordene Budget mit Takt auf, der wiederum mehr Spannung erfordert. Offensichtlich kosten die 200Mhz Takt etwa so viel wie 20mV Spannung einsparen.
Ganz genau. :) Anfangs hatte ich den Zusammenhang mit dem eingreifenden Powerlimit völlig vergessen. Dauert halt etwas bis ich wieder reinkomme. :tongue:
Das Verhalten selber ist doch seit spätestens der RX470 nichts neues?
Hier gibt es nicht nur Nerds. ;) Ich versuche die Zusammenhänge beim Undervolting auch einem Anfänger möglichst einfach zu erklären. :)
Das ist tatsächlich die einzige Anomalie, für die ich keine Erklärung habe und die ich bei mir bisher nicht beobachtet habe.
Ich weiß jetzt nicht inwieweit man das Bios in diesem Zusammenhang vermurksen kann. Ich kann bei Gelegenheit noch auf das zweite XFX Bios umschalten ob sich dieses auch so verhält.
Edit:
Ich habe jetzt mal spaßhalber was älteres angeschmissen was wenig heizt und entsprechend viel Boostclock freimacht. Bin auch mit Absicht auf 1440p anstatt 4k runter gegangen da hier das FSR-Upscaling fehlt. Also nativ 1440p. Mit -100mV läuft die Karte hier ohne Taktoffset selbst mit 250W in ein Taktlimit. :D
https://i.postimg.cc/YjMWvW4v/ACOrigins-2025-08-10-11-19-55-042.jpg (https://postimg.cc/YjMWvW4v)
Hier sieht man auch gut wie weit die avg. Frequenz von den maximalen 3450Mhz tatsächlich dann liegt.
Oder halt so mit -350Mhz zusätzlich wem 3Ghz-chen avg. hier reichen für eine "Green-Edition". ;)
https://i.postimg.cc/68MXfFzs/ACOrigins-2025-08-10-11-40-03-040.jpg (https://postimg.cc/68MXfFzs)
btw.
avg. 3,2Ghz sind nur noch durch mehr Voltage Offset zu erreichen hier mit -150mV.
https://i.postimg.cc/v4xjSzRB/ACOrigins-2025-08-10-13-23-19-219.jpg (https://postimg.cc/v4xjSzRB)
F5.Nuh
2025-08-10, 12:28:23
-500MHz Offset hatten hier rein gar nichts gegen die Instabilität gebracht. Es crasht nur einfach extrem random, mitunter noch nach Wochen.
Gibt hier ja mittlerweile auch genug andere Stimmen in die Richtung.
Das habe ich auch festgestellt. Ich habe nichts richtig Stabil hinbekommen.... nun läuft sie auf Standard.
nairune
2025-08-10, 12:37:19
-40mV klappen bislang in jeder Situation bei mir. Besser als die 6900 vorher, wo wirklich gar nichts ging :D
dargo
2025-08-10, 13:40:50
-40mV klappen bislang in jeder Situation bei mir. Besser als die 6900 vorher, wo wirklich gar nichts ging :D
Ich bin momentan dank Ratchet & Clank mit der XFX Swift XT bei -70mV, -350Mhz und max. 250W. Langfristigkeit muss sich noch zeigen. Wobei ich wahrscheinlich auf -450Mhz Taktoffset mit Peak 3Ghz gehen werde damit mir die Peaks nicht die avg. Frequenz ruinieren. Mal sehen welcher Taktoffset sich da als Bestwert noch herausstellt. :)
aufkrawall
2025-08-10, 15:17:45
Diese Stimmen hatten ergo womöglich im "Early Access" Zeitrahmen getestet.
Mal sehen, wo du in ein paar Monaten bist. :cool:
dargo
2025-08-10, 17:56:48
Soll ich hier noch was Besonderes mit der XFX Swift XT testen? Soweit habe ich alle Daten die ich brauche. Eigentlich kann langsam nächste Woche die Hellhound XT zum Vergleich und Kühlertest rein.
Edit:
Achja... das zweite XFX Bios noch testen, beinah vergessen. X-D
Was für Grey Screen Bug? Sowas noch nicht gesehen hier.
Bin mir nicht 100% sicher ob es immer auf einen "weichen" Grafiktreibercrash folgt oder auch so auftreten kann, aber Hauptsymptom am Ende ist: Im Webbrowser mit der Maus über Schaltflächen oder Links fahren und der gesamte Bildschirm wird für ne kurze Zeit grau (oder in HDR eher weiß), bis der Mauszeiger wieder woanders ist. Zusätzlich laggt der Mauszeiger erratisch und manche Windows Einstellungs-Menüs laggen hart.
Gibt es laut Internetz aber in verschiedenen Geschmacksrichtungen seit Jahren und auch auf nVidia.
dargo
2025-08-10, 18:02:17
Was ist denn jetzt wieder ein "weicher" Treibercrash? :uconf2: Also wenn mein Treiber crasht weil ich es mit dem UV zu gut meinte dann starte ich den Rechner neu und resete die Settings sofern nicht schon automatisch geschehen.
Je nach Spiel anders. In Cyberpunk hatte ich danach einfach ein Viertel der FPS, manche Spiele stürzen auch ab. Und das Radeon Menü lädt danach so lange, als ob es davor noch nicht gestartet wurde.
dargo
2025-08-10, 18:09:33
Komische Sachen. Zum Glück wurde ich davon verschont. :)
Ich schieb's teilweise auf meine alte Windows-Installation. Weiß garnicht mehr, ob die noch auf Windows 7 oder "schon" auf Windows 10 basiert.:freak:
dargo
2025-08-10, 18:28:09
Öhm... nimm am besten gleich Win11 frisch bei solchen Kuriositäten, wer weiß. :)
Edit:
Jetzt ist mir doch ein Treiberbug aufgefallen. Ich rufe den Treiber auf, gehe auf Leistung und klicke auf Konfiguration. Der Treiber schließt sich von alleine. Beim erneuten Aufrufen vom Treiber dauert es einige Sekunden länger bis der erscheint. Funzt dann aber wieder normal. Meinst du zufällig sowas mit "weichen" Crash? :)
@Korken
Mit dem zweiten Bios hat die XFX Swift XT das gleiche Problem. Der avg. Takt in CP77 ist mit 100% PT bei -80mV etwas höher als mit 110% PT und -80mV obwohl letzteres mehr säuft. Gleiche Kuriosität wie mit dem ersten Bios. Ansonsten sehe ich auch keinen Unterschied zum ersten Bios. Weder beim Powertarget noch sonst wo.
dargo
2025-08-10, 19:39:45
So... Hellhound XT ist eingebaut, ab jetzt geht also alles nur um die RX 9070XT Hellhound bei mir. :)
Min. Drehzahl bei mir sind 790RPM bei den bekannten, hohen 30%. Das positive daran... die Lüfter sind dermaßen ruhig dabei, dass ich davon aus dem geschlossenen Gehäuse nichts höre. Diese Bewertung erstmal unter Vorbehalt, ich muss sowas nachts beurteilen.
Geil... auf der Hellhound ist ebenfalls der kühle Samsung GDDR6 verbaut. :up:
93868
Jetzt ist mir doch ein Treiberbug aufgefallen. Ich rufe den Treiber auf, gehe auf Leistung und klicke auf Konfiguration. Der Treiber schließt sich von alleine. Beim erneuten Aufrufen vom Treiber dauert es einige Sekunden länger bis der erscheint. Funzt dann aber wieder normal. Meinst du zufällig sowas mit "weichen" Crash? :)
Ja, hab es auch grad wieder beim Cyberpunk-Testen. Hotkeys Alt+R und Strg+Shift+O funktionieren auch solange nicht, bis das Treibermenü nochmal manuell mit längerer Ladezeit gestartet wird.
aufkrawall
2025-08-10, 19:52:32
Das ist ein uraltes, immer wiederkehrendes Problem mit der AMD-Software, es crasht einfach sporadisch im Hintergrund. Das gab's früher schon immer mal, mit den RDNA4-Treibern vor dem 25.10 Branch blieb ich aber davon verschont. Ab besagtem Branch wurd's dann wieder blöd.
horn 12
2025-08-10, 19:57:10
So schnell Dargo, dachte Karte bleibt für etwa 10 Tage
Bin gespannt auf deine Werte, Samsung Speicher nun bei Deiner verbaut und habe Gehäuse heute geputzt!
Nun sollte es wieder besser laufen mit den Temperaturen ...
@edit
sehe Samsung Speicher!
Beurteile bitte Lüfter ab 1000 U/min bis etwa 1400 - und dann bis gar 1700 U/min.
dargo
2025-08-10, 20:11:08
So schnell Dargo, dachte Karte bleibt für etwa 10 Tage
Ich war mit meinen Untersuchungen schneller fertig. Ging auch ganzes WE mehr oder weniger drauf neben der Zeit in der Woche nach der Arbeit. :freak: Eines kann ich schon mal verraten. Der XFX Swift Kühler hat überhaupt keine Chance gegen den Hellhound XT Kühler. Das sind schon Welten. :eek:
Hier schon mal ein "Schnellschuss" nach ca. 10 Minuten Aufwärmphase mit APTR bei max. 304W im Silent-Bios und manuell eingestellten 1.130RPM.
https://i.postimg.cc/dh2M3ZR6/APlague-Tale-Requiem-x64-2025-08-10-19-57-23-166.jpg (https://postimg.cc/dh2M3ZR6)
Zum Vergleich die Swift im gleichen Powerbudget und RPM.
https://postimg.cc/Cz9QC2b9
Das sind 9°C Delta. :freak: Womöglich gar 10°C da ich meine die Swift lief noch bei Raum von 24°C, aktuell habe ich im Raum 25,2°C. Hinzu kommt noch, dass die Hellhound XT Lüfter bei der gleichen Drehzahl spürbar, wenn nicht sogar deutlich leiser sind. Was ich auch etwas seltam finde da ich ja zwei gleiche Powerbudgets vergleiche. Mit der Swift war meine linke Seitenwand vom Gehäuse bei 304W deutlich wärmer als mit der Hellhound. Keine Ahnung wie das bei gleicher Power möglich ist, es ist aber sehr auffällig.
btw.
Meine custom Lüfterkurve bei der Hellhound XT mit max. 1.120RPM.
93869
Flacher gehts kaum durch die beknackten min. 30%. :ulol:
Der_Korken
2025-08-10, 20:25:37
So einen großen Unterschied zwischen Swift und Hellhound hätte ich dann doch nicht erwartet. Zumindest nicht bei 300W, denn der Kühler der Hellhound ist relativ flach mit wenig Widerstand und erreicht somit bereits bei geringen Drehzahlen einen guten Luftstrom. Eventuell ist das der Grund, warum die Seitenwand weniger warm wird: Der Airflow nach oben ist deutlich besser, sodass die Wärme schneller oben abfließt statt mehrfach durch den GPU-Radi zu zirkulieren.
Wie machen sich die 800RPM akustisch im idle bei dir? Ich höre die 780RPM nach Drosselung leider immer noch deutlich raus und es würde mir dauerhaft auf den Sack gehen.
Edit: Spaßeshalber mal auf 31% gestellt, was bei mir 810RPM sind und die sind subjektiv deutlich angenehmer als die 780RPM. Selbst 32% und 880RPM sind weniger störend. Eventuell läuft mit PWM 30% irgendwas nicht rund und macht Schwingungen oder Schleifen? Gut dass ich das mal getestet habe ...
dargo
2025-08-10, 20:35:29
Einfach nur heftig die Kühlerperformance der Hellhound XT. :eek: Da ich bei der Swift oft max. 1075RPM bei max. 250W verwendet hatte wollte ich hier einen 1:1 Vergleich anstellen. Da meine custom Lüftersteuerung erst ab 70°C Hotspot max. RPM freigibt wird die max. Drehzahl von 1090RPM bei der Hellhound nicht mal erreicht (System aufgewärmt). X-D
-70mV, -350Mhz, max. 250W:
https://i.postimg.cc/CRb104vx/APlague-Tale-Requiem-x64-2025-08-10-20-30-41-370.jpg (https://postimg.cc/CRb104vx)
Die Seitenwand von meinem Gehäuse ist bei den 250W fast kalt mit der Hellhound XT. :freak:
Wie machen sich die 800RPM akustisch im idle bei dir?
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13796032&postcount=1937
Edit:
Wieder Glück gehabt. :D Ich scheine bei der Hellhound exakt die gleiche Chipgüte erwischt zu haben wie bei der Swift. Bei der von mir genannten Ratchet & Clank Szene crashen -75mV, -350Mhz bei max. 250W exakt gleich wie bei der Swift. -70mV, -350Mhz bei max. 250W laufen einwandfrei durch, genau wie bei der Swift. :tongue: Allerdings muss ich mir noch mit Hilfe von CP77 anschauen ob auch exakt die gleiche, reale Spannung bei der Hellhound mit diesem Setting anliegt.
Edit: Spaßeshalber mal auf 31% gestellt, was bei mir 810RPM sind und die sind subjektiv deutlich angenehmer als die 780RPM. Selbst 32% und 880RPM sind weniger störend. Eventuell läuft mit PWM 30% irgendwas nicht rund und macht Schwingungen oder Schleifen? Gut dass ich das mal getestet habe ...
Das ist das erste was ich bei Lüftern immer teste. Jedes Prozent einzeln bis zu der von mir als max. favorisierten Drehzahl. Alles drüber juckt mich dann nicht wenn ich es eh nicht verwende.
Edit 2:
Ich würde sagen das ist praktisch die gleiche Chipgüte. Je -70mV, -350Mhz bei max. 250W.
Swift XT:
https://i.postimg.cc/f3PGyGq7/CX-2025-08-10-21-13-51-Sensor.png (https://postimg.cc/f3PGyGq7)
Hellhound XT:
https://i.postimg.cc/rzxByY1W/CX-2025-08-10-21-15-33-Sensor.png (https://postimg.cc/rzxByY1W)
Der Kühler ist einfach fantastisch. :massa: Mich erinnert der ein wenig an den exzellenten Hellhound-Kühler von der Performance her bei der RX 7900XTX. Das Ding war einfach Bombe und ich hatte mir so einen Kühler bei N48 gewünscht. =)
Über 15 Minuten @250W in FH5, mehr Aufheizen geht nicht. Raum bei 25,1°C.
https://i.postimg.cc/HV5hLnFB/Forza-Horizon5-2025-08-10-21-36-40-839.jpg (https://postimg.cc/HV5hLnFB)
Hakim
2025-08-10, 21:38:32
Ist echt eigenartig, bei HWUB waren bezüglich Temps kaum Unterschiede zwischen Swift und Hellhound. Auch bei HWUB wird die Mercury als einer der besten Karten dargestellt, woanders schneidet sie sehr schlecht ab.
nairune
2025-08-10, 21:52:20
Ist echt eigenartig, bei HWUB waren bezüglich Temps kaum Unterschiede zwischen Swift und Hellhound.
Ohne reingeguckt zu haben: da wird doch eh nur Stock getestet. Also volles Powertarget und die Lüfter regeln nach Zieltemperatur.
Wenn die Temps dort gleich sind, heißt das einfach nur, die Temperaturziele sind gleich eingestellt...
Der_Korken
2025-08-10, 22:32:33
Ist echt eigenartig, bei HWUB waren bezüglich Temps kaum Unterschiede zwischen Swift und Hellhound. Auch bei HWUB wird die Mercury als einer der besten Karten dargestellt, woanders schneidet sie sehr schlecht ab.
Ich denke es macht auch einen Unterschied in was für einem Gehäuse man testet. Meine MSI Gaming RX5700 war knapp 30cm lang, einen guten cm breiter als die Hellhound, deutlich dicker, aber dafür nur zwei Lüfter und ein komplett durchgehendes PCB, sodass die gesamte warme Luft irgendwie an der Karte vorbei gemogelt werden musste. Wenn ich die in meinem alten Meshify (2018) laufen hatte, wo nur von vorne Luft rangeblasen wird aber nicht von unten, dann hat die viel warme Abluft wieder angesaugt, weil die Luft einfach nirgendwo hinging. Ich hatte davor kurz eine 5700er Nitro, die mit der Airflow-Config sehr viel besser klar kam, weil der hintere Lüfter durch das PCB geblasen hat. In Reviews kam die MSI aber oft sehr gut weg. Eventuell haben die mit offenem oder einem großen XL-Gehäuse gemessen. Dort würde sich der Hitzestau der MSI nicht so bemerkbar machen. Mit einem Jonsbo D40 haben sich die GPU Temps deutlich verbessert, weil der Intakte nicht vorne sondern unten ist und den Hitzestau besser löst. Die Nitro hätte vermutlich weniger stark profitiert. Ist jedenfalls meine Vermutung.
dargo
2025-08-11, 06:46:05
@Korken
Der dritte Lüfter kann bei der Swift auch gut durchblasen, das zumindest alleine kann keine Erklärung sein. Der Kühler selbst bei der Swift XT ist ja nicht schlecht. Edge vs Delta sind sehr gut. Ich vermute das Lüfterdesign ist kacke bzw. suboptimal. Eventuell erzeugen die zu wenig Druck oder sowas.
btw.
Bevor ich es vergesse versuche ich mal jetzt die Lüfter bei der Swift XT genauer zu beschreiben. Grundsätzlich finde ich die RX 9070XT Swift bis 1.000RPM von der Lautstärke her exzellent und würde das als absolut silent durchgehen lassen. Diese 1.000RPM waren selbst in Idle aus meinem Gehäuse kaum wahrnehmbar, da muss ich schon mit dem Kopf dran kleben. Bis 1.070RPM werden sicherlich 99% der Konsumenten die Swift XT auch noch als extrem leise durchgehen lassen, eventuell sogar bis 1.130RPM. Mit 1.130RPM habe ich persönlich schon leichte Bauchschmerzen. Nicht wegen dem verdammt leisen Luftrauschen welches ich dann in Idle minimal heraushören kann sondern wegen einer auffälligen, unschönen Frequenz. So eine Art Whooo (keine Ahnung wie ich das besser beschreiben soll :D) was die Lüfter regelmäßig dann mit Unterbrechungen machen. Beim normalen Gamingsound und wenn die Gehäuselüfter halt etwas schneller als in Idle drehen wird das sicherlich in der Praxis auch kaum jemanden stören. Aller spätestes bei 1.200RPM finde ich die XFX-Lüfter nicht mehr leise. Und bei 1.600RPM was sie per Default bei 304W erreichen sind die sehr laut. Sowas würde ich keinem zumuten wollen. Kurz und schmerzlos... wenn schon RX 9070XT Swift weil Preis extrem gut dann bei max. 250W deckeln und Lüfter @max. 1.000RPM, höchstens 1.070RPM. Ansonsten anderen AIB kaufen. Mit 304W ist die Swift XT imo völlig überfordert. Es sei denn man kriegt einen Airflow im Gehäuse hin der vergleichbar zur offenen Seitenwand ist. Meine 2 Cent dazu. :)
horn 12
2025-08-11, 07:34:59
Bis wann würdest du den Lüfter der Hellhound im Game noch als voll leise
und bis wann noch als sehr leise bezeichnen lieber Dargo
dargo
2025-08-11, 09:31:26
Bis wann würdest du den Lüfter der Hellhound im Game noch als voll leise
und bis wann noch als sehr leise bezeichnen lieber Dargo
Gebe ich dir im Laufe der Woche bescheid. Ich muss nach der Arbeit heute was wichtiges erledigen was eigentlich schon am WE gemacht werden sollte. Bin Rechnungsprüfer in unserer Gemeinschaft und diese ist überfällig.
btw.
Die XT boostet in BF6 Beta auf bis zu 3,2Ghz hoch mit PT 110% im nativen 1440p Ultra.
XtbVdTSV134
Die Sapphire Pure ist allerdings undervoltet, steht leider nicht dabei wie stark.
Also entweder ist die Beta noch extrem cpu-lastig oder RDNA4 wird noch nicht voll ausgelastet. In 1440p (auch Nativ AA) hängt die Pulse XT ständig im Taktlimit von ~3,05Ghz fest.
0kAK9u8_QC0
dargo
2025-08-11, 14:57:56
@Korken
Da ich gerade noch beim Kaffee sitze teste ich ein wenig rum. Die Hellhound XT boostet im Schnitt mit 110% PT zwar höher als 100% PT. Effektiv bringt es aber fast nichts außer 30 Wattchen mehr Durst. Interessanterweise ist die Hellhound XT trotzdem etwas schneller als die Swift XT. Bei der Swift lag der höchste Wert bei 116,xx avg.fps.
-80mV, 110% PT:
https://i.postimg.cc/mPJ5TT1R/CX-2025-08-11-14-52-34-Sensor.png (https://postimg.cc/mPJ5TT1R) https://i.postimg.cc/Wq1nMyqX/Cyberpunk2077-2025-08-11-14-40-28-624.jpg (https://postimg.cc/Wq1nMyqX)
-80mV, 100% PT:
https://i.postimg.cc/fJgHvMKX/CX-2025-08-11-14-53-05-Sensor.png (https://postimg.cc/fJgHvMKX) https://i.postimg.cc/bd4D0Mnr/Cyberpunk2077-2025-08-11-14-44-00-161.jpg (https://postimg.cc/bd4D0Mnr)
Hier die Swift.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13795583&postcount=1909
Irgendwas stimmt da mit der Swift nicht was das Boostverhalten bei >100% PT angeht.
Der_Korken
2025-08-11, 15:43:48
@Korken
Da ich gerade noch beim Kaffee sitze teste ich ein wenig rum. Die Hellhound XT boostet im Schnitt mit 110% PT zwar höher als 100% PT. Effektiv bringt es aber fast nichts außer 30 Wattchen mehr Durst. Interessanterweise ist die Hellhound XT trotzdem etwas schneller als die Swift XT. Bei der Swift lag der höchste Wert bei 116,xx avg.fps.
-80mV, 110% PT:
https://i.postimg.cc/mPJ5TT1R/CX-2025-08-11-14-52-34-Sensor.png (https://postimg.cc/mPJ5TT1R) https://i.postimg.cc/Wq1nMyqX/Cyberpunk2077-2025-08-11-14-40-28-624.jpg (https://postimg.cc/Wq1nMyqX)
-80mV, 100% PT:
https://i.postimg.cc/fJgHvMKX/CX-2025-08-11-14-53-05-Sensor.png (https://postimg.cc/fJgHvMKX) https://i.postimg.cc/bd4D0Mnr/Cyberpunk2077-2025-08-11-14-44-00-161.jpg (https://postimg.cc/bd4D0Mnr)
Hier die Swift.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13795583&postcount=1909
Irgendwas stimmt da mit der Swift nicht was das Boostverhalten bei >100% PT angeht.
OK, dann liegt es wirklich am Modell. Die Werte der Hellhound passen einigermaßen: Von 0,94V auf 0,98V sind ca. 4% mehr, was ca. 8% mehr Verbrauch sind. Dazu noch 2,5% mehr Takt und man ist sehr nah an den 10% mehr PT dran. Da der Takt nichtmal 1:1 in mehr Leistung umgesetzt wird, sind solche hohen PTs bei N48 relativ nutzlos.
Btw: Es gab vor dem Launch Gerüchte, dass N48XT mit 265W kommen sollte, was eigentlich auch viel besser zum Chip passt. Offensichtlich war der Abstand zum kleinen Modell zu klein oder die 5070Ti ist schwächer ausgefallen als AMD erwartet hat und die wollten noch irgendwie an das Konkurrenzprodukt ranzukommen.
dargo
2025-08-11, 16:02:48
Was auch interessant ist... die Hellhound XT ist @Stock 304W etwas schneller als die Swift XT. Ergo habe ich jetzt einen neuen Referenzpunkt in CP77 bei den Frames den ich beim UV verfolge. Keine Ahnung ob hier der Samsung GDDR6 mit unterschiedlichen Timings ausgeliefert wird oder die Hellhound XT vielleicht ein etwas effizienteres PCB (Spawas) verwendet.
Stock @304W:
https://i.postimg.cc/CBkpfmfZ/Cyber-Punk2077-Stock-304-W-Hellhound.jpg (https://postimg.cc/CBkpfmfZ) https://i.postimg.cc/VJ8gY4zG/CX-2025-08-11-15-59-10-Sensor.png (https://postimg.cc/VJ8gY4zG)
-70mV, -350Mhz @250W + Fasttimings:
https://i.postimg.cc/FkYWLK6T/Cyberpunk2077-70m-V-350-Mhz-250-W-Hellhound.jpg (https://postimg.cc/FkYWLK6T) https://i.postimg.cc/zy8wmBk4/CX-2025-08-11-16-00-13-Sensor.png (https://postimg.cc/zy8wmBk4)
Ca. 5 Wattchen zusätzlich fehlen scheinbar noch. :tongue:
Zum Vergleich... Referenzpunkt bei der Swift @Stock mit 304W.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13795439&postcount=1901
PS: aktuelle Raumtemperatur liegt bei 25,3°C.
Edit:
Jetzt habe ich die Punktlandung mit max. 258W bzw. 85% PT. :D
-70mV, -350Mhz, max. 258W (PT -15%) + Fasttimings:
https://i.postimg.cc/cgMq1hjd/Cyberpunk2077-70m-V-350-Mhz-258-W.jpg (https://postimg.cc/cgMq1hjd) https://i.postimg.cc/wy9f2pfd/CX-2025-08-11-16-36-07-Sensor.png (https://postimg.cc/wy9f2pfd)
Jetzt ist erstmal Schluss mit der Spielerei, muss endlich etwas Produktives hier tun. ;)
dargo
2025-08-11, 19:04:11
Ganz ehrlich... mehr als 2 Stunden Rechnungsprüfung am Stück ertrage ich nicht. Dann lieber mit der neuen Hardware rumspielen. ;D Rest mache ich dann morgen. :D
Hier noch ein kleiner Vergleich mit APTR. Savegame 15 Sekunden vermessen ohne mich zu bewegen. Bissel Messschwankung gibts immer dabei, ich denke ich werde mich auf die 255W bzw. PT 84% erstmal einlassen.
https://i.postimg.cc/H8jr2xFK/CX-2025-08-11-18-58-21-Comparison.png (https://postimg.cc/H8jr2xFK)
Sensorwerte:
https://i.postimg.cc/qtkMwq3L/CX-2025-08-11-19-00-29-Sensor.png (https://postimg.cc/qtkMwq3L) https://i.postimg.cc/nXxHVr0J/CX-2025-08-11-19-01-08-Sensor.png (https://postimg.cc/nXxHVr0J) https://i.postimg.cc/B8V9Fnct/CX-2025-08-11-19-01-40-Sensor.png (https://postimg.cc/B8V9Fnct)
Meine custom Lüftersteuerung bei der Hellhound XT bewegt sich nun zwischen min. 790RPM und max. 1090RPM. Bei max. 255W ist der Kühler damit völlig unterfordert.
Disco_STFU
2025-08-11, 19:10:46
In welchem Zustand kam denn die Retouren Karte bei dir an? Verpackung, Zustand der Karte an sich etc?
dargo
2025-08-11, 19:40:46
Neuwertig... Verpackung sah wie geleckt aus und an der Karte selbst konnte ich auch keine Gebrauchsspuren wie Kratzer oder sonst was erkennen obwohl Galaxus von leichten Gebrauchsspuren bei Beidem geschrieben hatte. Womöglich ein Standardspruch vom Händler. Offenbar war die Karte bei keinem mit zwei linken Händen. :tongue:
Edit:
Das einzige was mich etwas gewundert hat direkt am Anfang als ich auf die Lüfter geschaut hatte, dass die Winkel der Lüfter nicht 100% exakt zum Winkel der Platte wo die Lüfter befestigt sind passen. Auch der Abstand vom Ring der Lüfter ist unten und oben nicht perfekt zum Loch vom Blech ausgerichtet. Soll heißen als Beispiel... unten beträgt der Abstand ca. 2mm, oben ca. 1mm. Ich vermute hier erstmal Fertigungstoleranzen von Powercolor bzw. dem Zulieferer der Lüfter mit Befestigungsplatte. Später mit Bildern (ich hoffe man kann es auf den Bildern überhaupt erkennen was ich meine) kann ich mehr dazu sagen.
btw.
15 Minuten rumfahren in FH5 um den Rechner gut aufzuheizen mit dem neuen 255W Setting.
4k + FSR4 Quality, max. Details
https://i.postimg.cc/wyQZ95TK/Forza-Horizon-5-2025-08-11-20-07.jpg (https://postimg.cc/wyQZ95TK)
Raumtemperatur liegt bei 25,5°C aktuell. Was hat der GPU-Hotspot dann im Winter bei 20°C Raum? 65°C? ;D Der Vram fühlt sich ebenfalls trotz viel Wärme im Raum puddelwohl. :tongue: Die Kühlperformance der Hellhound XT ist einfach saugut. =)
PS: an dem AB-Overlay muss ich bei Gelegenheit noch etwas feilen. Die Lesbarkeit ist teilweise mies. Schwierig da einen guten Kompromiss für SDR und HDR zu finden.
horn 12
2025-08-11, 22:06:35
Habe selbst Minus 18% PL
und -70 mv einstellt
wo bist du bitte dann unterwegs PL Prozent und Untervolting
und mein Delta ebenso zwischen 15 und 17 als Edge
@edit
sehe 84/ 85% und ebenso bei dir -70mv
@edit
Dann behaltest die Rückläufer 9070 XT und selbst ebenso auch kein Spulenfiepen bei deiner Karte vorhanden?
So wie meine dann in etwa, minus 70mv Stabil und auch bei mir nicht Spulenpiepen!
dargo
2025-08-12, 09:41:52
Dann behaltest die Rückläufer 9070 XT und selbst ebenso auch kein Spulenfiepen bei deiner Karte vorhanden?
Du stellst deine Fragen immer zu früh. ;) Bisher sieht mit der Hellhound XT alles sehr gut aus, der Rest wird sich die nächsten Tage zeigen.
F5.Nuh
2025-08-12, 14:03:57
-70mV, -350Mhz, max. 258W (PT -15%) + Fasttimings:
https://i.postimg.cc/cgMq1hjd/Cyberpunk2077-70m-V-350-Mhz-258-W.jpg (https://postimg.cc/cgMq1hjd) https://i.postimg.cc/wy9f2pfd/CX-2025-08-11-16-36-07-Sensor.png (https://postimg.cc/wy9f2pfd)
Jetzt ist erstmal Schluss mit der Spielerei, muss endlich etwas Produktives hier tun. ;)
Habe jetzt genau die selbe Einstellung und "empfindliche" Spiele getestet und es läuft bisher sauber und die Karte ist extrem kühl.
Leistungstechnisch habe ich kaum Verlust zu Stock, Danke :freak:
dargo
2025-08-12, 14:19:22
Habe jetzt genau die selbe Einstellung und "empfindliche" Spiele getestet und es läuft bisher sauber und die Karte ist extrem kühl.
Leistungstechnisch habe ich kaum Verlust zu Stock, Danke :freak:
Ich hatte schon den Verdacht, dass der eine oder andere das Undervolting von RDNA4 nicht so ganz versteht. Gern geschehen. :) Im Prinzip ist das das gleiche wie bei Ryzen-CPUs. Voltage Offset = negativer CO bei Ryzen. Taktoffset = Taktoffset über den PBO2-Tuner @Software unter Windows. Bios bietet letzteres nicht an.
Edit:
Das ist auch recht witzig. Hier in TLOU2 vernehme ich ein leises Säuseln der Spulen wenn ich mit dem Kopf am Gehäuse klebe. Gibt es so ein Wort überhaupt? :D Es ist irgendwas zwischen Fiepen und Rasseln. Bisher ist mir sowas nur bei diesem Spiel aufgefallen. Auch bei der Swift XT waren die Spulen hier nicht untätig.
https://i.postimg.cc/ZWSxV2hJ/The-Last-of-Us-Part-II-Remastered-2025-08-12-14-46.jpg (https://postimg.cc/ZWSxV2hJ)
Drehe ich mich nur um wo der Boostclock runter geht ist es weg. :D
https://i.postimg.cc/MMv7n81m/The-Last-of-Us-Part-II-Remastered-2025-08-12-14-47.jpg (https://postimg.cc/MMv7n81m)
TLOU2 ist eins der Games was eher wenig heizt.
btw.
Hier nochmal eine kurze Erklärung zum Undervolting. Da bei mir immer das Overlay mitläuft sehe ich ständig wie hoch die GPU in jedem Spiel boostet. Aktuell war ich als Test in God of War unterwegs mit meinem 255W UV-Setting. Relativ am Anfang vom Spiel gibt es einen Bosskampf. In der zweiten Phase von diesem Kampf ist mir der Rechner gefreezed. Glücklicherweise konnte ich beim Freeze sehen, dass auf der GPU-Uhr 3018Mhz standen. Daran sieht man, dass hier die Boostspikes (nicht vergessen, das ist nur der avg. Takt) noch etwas problematisch sind da das Game relativ wenig heizt und die GPU entsprechend höher boosten will bzw. kann weil eben die 255W noch Freiraum bieten. Einmal mit -70mV und -400Mhz getestet (habe mich mehrmals töten lassen da Szenen ziemlich dynamisch) und schon ist nichts mehr gefreezed. Danach mit -70mV und -375Mhz getestet. Auch hiermit passt es. Beim letzteren konnte ich während des Kampfes (gar nicht so einfach den Gegner auf dem höchsten Schwierigkeitsgrad zu bearbeiten und gleichzeitig den GPU-Takt im Auge zu behalten :D) noch max. 2999Mhz avg. Takt im Overlay sehen. Daran sieht man sehr gut, dass diese -350Mhz schon minimal zu viel des Guten in Kombination mit -70mV und 255W waren. Eben für solche Games mit nicht so hohen Heizlast. Ich werde mir diese Szene jetzt mal abspeichern bzw. sichern falls ich die irgendwann mal brauche, gleiches mache ich dann auch mit der Szene aus Ratchet & Clank. :)
Hakim
2025-08-12, 16:06:28
Man sollte immer noch ein Tick Sicherheitspuffer über lassen, wenn es gerade so läuft, kann bei einer anderen Situation/Stelle oder anderen Spiel oder minimal höheren Temps bei 35+ draußen wieder anders aussehen. So mache ich es zumindest bei mir schon lange.
Sprich ka wenn -350 instabil ist und -375 geht, auf -400 belassen
dargo
2025-08-12, 16:15:22
Man sollte immer noch ein Tick Sicherheitspuffer über lassen, wenn es gerade so läuft, kann bei einer anderen Situation/Stelle oder anderen Spiel oder minimal höheren Temps bei 35+ draußen wieder anders aussehen. So mache ich es zumindest bei mir schon lange.
Sprich ka wenn -350 instabil ist und -375 geht, auf -400 belassen
Kann man, muss man aber nicht. :) Denn irgendwann falls was crashed/freezed siehst du es ja. Kurzer Gegencheck obs am UV liegt (hier nicht verrückt machen lassen, gerade neue Game-Releases sind nicht selten noch instabil da zu hastig veröffentlicht) und wenn mit weniger UV bzw. Stocksettings alles passt korrigierst du das UV noch mal nachträglich etwas nach. Das letzte Feintuning so zu sagen.
Edit:
Kurze Info am Rande... mit -70mV, -360Mhz und PT 84% (Basis 304W) lief der Bosskampf auch problemlos durch. Dabei konnte ich den höchsten avg. Takt von 3004Mhz im Overlay sehen. Ergo lege ich mir das jetzt als neues Profil ab, daddle weiter und lasse mich überraschen. :)
horn 12
2025-08-12, 17:28:44
@Wiseman stellt beim Minus Takt nie etwas ein
dies bewirkt laut dir ob Wirklich Stabil oder unstabil das Game dann läuft.
Hatte bis dato ebenso nie den Wert, Reiter berührt.
dargo
2025-08-12, 17:43:31
Wenn ich die Bilder von Wiseman verfolge sehe ich da ein Powerlimit von 221W. Mit diesem Powerlimit wird seine Karte praktisch nie in den Bereich boosten wo der maximale, negative Taktoffset greifen könnte. Mit anderen Worten... das Powertarget von Wiseman ist zu klein gewählt um in ein Taktlimit zu laufen, selbst bei -500Mhz. Bitte genau lesen was ich schreibe und nicht falsch interpretieren bzw. wiedergeben was ich gar nicht gesagt habe. Ich habe gesagt ein negativer Taktoffset bringt Stabilität wenn man seine Karte höher boosten lässt. Das kann man mit mehr Powerlimit und/oder mehr negativen Voltageoffset erreichen.
horn 12
2025-08-12, 18:12:22
Ja, Wisemann lässt seiner Karte PL Minus 30% zu
Ich meiner derzeir immer minus 18% PL und zwecks UV Minus 70mv
Hakim
2025-08-12, 18:16:40
Es wäre halt Cool wenn AMD bei den Minus Takt Offset mehr Spielraum geben würde. Die -500Mhz sind z.B beim 9070 eher weniger relevant. Für mich Persönlich würde es aber reichen, wenn ich es knapp unter 3GHz als Max Takt einstellen würde.
F5.Nuh
2025-08-12, 22:54:50
Hmm also mit den Einstellungen von Dargo hatte ich meine Hellhound XT in CoD Warzone - Training getestet für fast eine Stunde ohne Probleme und war Happy.
Heute CoD Warzone Ranked mit Freunden und ich bin direkt rausgeflogen... ich blicke wirklich nicht durch bei der 9070XT :freak::freak::freak:
aufkrawall
2025-08-12, 23:50:47
ich blicke wirklich nicht durch bei der 9070XT :freak::freak::freak:
Da muss man einfach nur verstehen, dass bei Wattman-UV die Instabilität nur durch systematische Tests mit begrenzter Dauer überhaupt nicht zu erfassen ist. Dann muss man es noch wahrhaben wollen, und dann gibt es auch den Reiz nicht mehr, doch noch irgendwas zu frickeln, was sowieso zum Scheitern verurteilt ist.
dargo
2025-08-13, 06:12:50
Hmm also mit den Einstellungen von Dargo hatte ich meine Hellhound XT in CoD Warzone - Training getestet für fast eine Stunde ohne Probleme und war Happy.
Heute CoD Warzone Ranked mit Freunden und ich bin direkt rausgeflogen... ich blicke wirklich nicht durch bei der 9070XT :freak::freak::freak:
Du warst mit den Settings zu knapp an der Stabilitätsgrenze mit deinem Chip wahrscheinlich. Versuche -60mV oder -50mV als nächstes.
btw.
Du vergleichst da sehr dynamische Sachen. Im "Grenzbereich" beim UV empfehle ich eher Szenen die exakt reproduzierbar sind.
Edit:
Leider ist der Chip bei der Hellhound XT minimal schlechterer Güte als bei der Swift XT. In der Cutszene von Ratchet & Clank lief die Swift mit -70mV durch, die Hellhound braucht -50mV. So ist das halt in der Silikonlotterie, man kann nicht immer nur sehr gute Chips erwischen. Wobei diese Schlussfolgerung auch nicht unbedingt stimmen muss. :uponder: Wie ich schon mal erwähnt hatte ist die Hellhound XT bei Stock 304W in CP77 minimal schneller als die Swift XT. Womöglich boostet die einfach etwas höher durch effizienteres PCB.
Aus den Messdaten @Stock 304W in CP77 ergibt sich folgendes Bild.
Swift XT = avg. 2807Mhz, avg. 959mV
Hellhound XT = avg. 2808Mhz, avg. 952mV
Boosttaktraten absolut identisch, kann also eigentlich nichts mit effizienterem PCB zu tun haben. Bleibt also nur noch der Samsung Speicher mit unterschiedlichen Timings der die Mehrleistung erklären könnte. :uponder: Oder was meinen die anderen? Wobei mich es schon wundern würde wenn bei einem Massenprodukt wie Vram die Timings sich stark unterscheiden würden. Es sei denn der AiB XYZ übertaktet den "heimlich" um in Benchmarks besser dar zu stehen. Keine Ahnung ob AMD den AIBs so viele Freiheiten genehmigt.
Bismarx
2025-08-13, 17:40:39
Hmm also mit den Einstellungen von Dargo hatte ich meine Hellhound XT in CoD Warzone - Training getestet für fast eine Stunde ohne Probleme und war Happy.
Heute CoD Warzone Ranked mit Freunden und ich bin direkt rausgeflogen... ich blicke wirklich nicht durch bei der 9070XT :freak::freak::freak:
Die "Einstellungen von Dargo" geben schlicht das wieder, was hier vor Monaten schon von Korken und anderen breit ausdiskutiert worden ist. Nicht jede Einstellung funktioniert mit allen Games.
Mit -50 mV dürften die meisten XTs breit fehlerfrei funktionieren, darüber ist es dann zunehmend Glücksspiel (Chipgüte/Spiel).
Von der Spannung ab ist die wichtigere Erkenntnis zur XT schlicht: die letzten paar Prozent PT bringen unverhältnismäßig wenig an FPS. Wer 10% PT absenkt, macht kaum was falsch. Mehr geht auch.
dargo
2025-08-13, 19:24:26
@Bismarx
Ergänzend dazu noch folgende Messungen von mir mit der Hellhound XT bei mittlerweile 26,5°C Raumtemperatur in CP77. Die aktuellen Außentemperaturen sind heftig. :uhippie:
Stock@ max.304W
https://i.postimg.cc/mtRKr94j/CX-2025-08-13-18-53-35-Sensor.png (https://postimg.cc/mtRKr94j) https://i.postimg.cc/5XshT2Z3/Cyber-Punk2077-Stock-304-W-Hellhound.jpg (https://postimg.cc/5XshT2Z3)
-50mV, max. 264W + Fast Timings
https://i.postimg.cc/k2CSznxB/CX-2025-08-13-18-56-04-Sensor.png (https://postimg.cc/k2CSznxB) https://i.postimg.cc/xXdfchQ6/Cyberpunk2077-50m-V-264-W-Hellhound.jpg (https://postimg.cc/xXdfchQ6)
-70mV, max. 252W + Fast Timings
https://i.postimg.cc/1n7T7C23/CX-2025-08-13-18-59-25-Sensor.png (https://postimg.cc/1n7T7C23) https://i.postimg.cc/bG3FdVz9/Cyberpunk2077-70m-V-252-W-Hellhound.jpg (https://postimg.cc/bG3FdVz9)
Mit den Fast Timings versuche ich natürlich mir ein paar Mhz-chen einzusparen und somit auch etwas Power. Allerdings scheint das in CP77 extrem wenig zu bringen. Als weiteres wollte ich mit mehr Speichertakt mir weitere Mhz-chen bei der GPU einzusparen. Das bringt aber rein gar nichts. Mit bsw. 2,7Ghz Vram wird der Benchmark minimal langsamer, ~0,5fps weniger bei >100 Basisframes. Wer also keinen super duper Chip in der Lotterie erwischt hat ist jetzt auch nicht soo schlecht dran. Dann nimmt er halt -50mV mit paar Wattchen mehr und gut ist. Wer das nicht möchte nimmt halt -50mV mit den hier im Beispiel max. 252W, verzichtet somit auf ~1% Performance und freut sich über eine sehr sparsame Grafikkarte. Es gibt unheimlich viele, individuelle Betriebspunkte, da wird sicherlich jeder fündig. :)
PS: ich bin mit der Hellhound XT aktuell bei -50mV, -350Mhz und max. 264W. Übertreibe ich es mit dem Voltage Offset crasht mir meine gesicherte Szene in Ratchet & Clank bei 2,7xGhz, also eher im unteren Taktbereich. Nehme ich kein Takt Offset crasht mir der Kampf in God of War weit oben bei >3Ghz (3067Mhz schon ohne Takt Offset gesehen) mit dem 264W Powerlimit.
Edit:
Hier noch ein kleiner Nachschlag um zu zeigen über welche Peanuts wird überhaupt sprechen.
-50mV, max. 252W + Fast Timings
https://i.postimg.cc/qNswYbSx/CX-2025-08-13-19-32-37-Sensor.png (https://postimg.cc/qNswYbSx) https://i.postimg.cc/nsxRhbBW/Cyberpunk2077-50m-V-252-W-Hellhound.jpg (https://postimg.cc/nsxRhbBW)
0,8% weniger Performance vs. Stock. :freak: Eigentlich komplett bescheuert exakt die Performance von Stock zu "jagen". Ich mache das nur weil sich schon der Hellhound XT Kühler über die 264W, selbst bei hohen Raumtemperaturen kaputt lacht. :ulol:
Der_Korken
2025-08-13, 19:43:32
Ich hatte bisher das Gefühl, dass eher die Spiele wenig UV vertragen, die unter Last niedrig takten. Vermintide 2 als Negativrekord, der mit -60mV an einer bestimmten Stelle fast instant crasht, ist mit 240W nur bei 2,6xGhz unterwegs. Bei meinem 5900X habe ich den negativen Takt-Offset (den ich btw. direkt im BIOS einstellen konnte) sehr gerne genutzt, um mehr UV stabil zu bekommen. Bei N48 scheint die Regel, dass die hohen Taktraten am instabilsten laufen, nicht zu gelten, sodass ich für den negativen Takt-Offset mittlerweile wenig Nutzen sehe. Ja, man kann sich damit den Taktbereich verkleinern, sodass man einige mögliche Instabilitäten ausschließen kann, aber der Bringer ist es nicht. Auch um ein künstliches Taktlimit zu schaffen, finde ich ihn nicht gut, weil er a) zu wenig Offset zulässt und b) sich die realen Taktraten je nach Spiel schon recht stark unterscheiden und man somit wieder jedes einzeln optimieren müsste.
Edit:
@dargo: Zum VRAM-OC austesten scheint dieses Tool ganz gut zu sein: https://github.com/GpuZelenograd/memtest_vulkan
Man stellt den VRAM-Takt ein und lässt ihn mindestens 5 Minuten laufen. Dabei muss man genau beobachten, wie sich der Speicherdurchsatz bei jeder Iteration verhält. Solange der Takt stabil ist, steigt der Durchsatz mit dem Takt und bleibt auch über mehrere Iterationen stabil. Ist der Takt nicht stabil, stürzt das Tool nicht ab (außer man ist weit drüber), sondern die Leistung nimmt einfach ab, weil eine Art Fehlerkorrektur im VRAM eingreift. Das ganze ist temperaturabhängig, weswegen man mindestens 5 Minuten testen muss - sonst ist der Speicher nicht richtig heiß und die ersten paar Runs zeigen eine Leistungssteigerung statt -regression. Da die GPU hier sehr hoch taktet und wir den VRAM möglichst heiß kriegen wollen, sollte man ohne negativem Takt-Offset, ohne UV und mit vollem PT testen. Bei mir (Hynix-Speicher) lief es bis etwa 2730Mhz stabil, mit Puffer 2700Mhz. In Spielen hat der schnellere Speicher bisher aber fast nichts gebracht, da er dann auch einiges mehr verbraucht und der GPU den Strom klaut. +200Mhz VRAM können schnell -75Mhz GPU bedeuten, sodass man unterm Strich nichts gewonnen hat. Und die 2700Mhz liegen natürlich auch bei 2D-Last an und treiben dort den Verbrauch hoch (= noch schwieriger die Lüfter aus zu halten).
Edit²: Achso, einen großen Nachteil hat das Tool: Man muss ständig die Maus bewegen, um die volle Leistung zu bekommen, weil da sonst irgendein Stromsparmechanismus reingrätscht, der den Speicher drosselt :freak:. Macht das Testen leider nervig, aber ist irgendein komischer N48-Quirk.
dargo
2025-08-13, 19:48:18
Bei nur 240W wirst du auch kaum den Takt Offset brauchen. Dafür müsstest du wieder deutlich mehr Voltage Offset verwenden, was ja eh instabil wird.
btw.
Beim 252W Powerlimit und den -50mV benötige ich noch kein Takt Offset für God of War. Durch das geringere Powerlimit und weniger negativen Voltage Offset erlaube ich der GPU halt nicht so hoch zu boosten. Das höchste was ich damit bisher im Kampf gesehen habe waren 3017Mhz und die laufen problemlos.
Master3
2025-08-14, 08:40:35
Interessant das der Kühler der XT Hellhound so viel besser ist als bei der non XT. Ich hab meine bei 230W und -50mV laufen und Hotspot liegt bei gut über 80°C und der VRAM pendelt zwischen 88-90°C unter Volllast.
Hier sind die technischen Daten.
https://www.computerbase.de/artikel/grafikkarten/powercolor-rx-9070-xt-red-devil-hellhound-test.92205/#abschnitt_radeon_rx_9070_xt_3_weitere_customdesigns_im_test
https://www.computerbase.de/artikel/grafikkarten/radeon-rx-9070-custom-design-test.91526/#abschnitt_radeon_rx_9070_5_customdesigns_im_test
der Hellhound XT Kühler vs. non XT
- 1180gr / 1076gr
- beide 3*100mm Lüfter
- 2,5Slot / 2Slot Dicke
CB testet im Meshify 2 mit 6 Lüftern.
Ich hab ein Fractal Design R5 mit 2 140ern an der Front und ein 1 140er am Heck. Tür steht offen und ich lass die absichtlich hoch drehen und das bringt irgendwie nix. :confused:
dargo
2025-08-14, 09:14:17
Interessant das der Kühler der XT Hellhound so viel besser ist als bei der non XT. Ich hab meine bei 230W und -50mV laufen und Hotspot liegt bei gut über 80°C und der VRAM pendelt zwischen 88-90°C unter Volllast.
Bitte immer dabei die Raumtemperatur angeben sonst sind die Angaben recht wertlos, gleiches gilt für fehlende RPM-Angaben. :) Vram sieht bei den Werten eher nach Hynix aus, da wirst du thermisch vs. Samsung immer im Nachteil sein.
Hier sind die technischen Daten.
https://www.computerbase.de/artikel/grafikkarten/powercolor-rx-9070-xt-red-devil-hellhound-test.92205/#abschnitt_radeon_rx_9070_xt_3_weitere_customdesigns_im_test
https://www.computerbase.de/artikel/grafikkarten/radeon-rx-9070-custom-design-test.91526/#abschnitt_radeon_rx_9070_5_customdesigns_im_test
der Hellhound XT Kühler vs. non XT
- 1180gr / 1076gr
- beide 3*100mm Lüfter
- 2,5Slot / 2Slot Dicke
Die Angaben zu den Lüftern von CB sind falsch. Der mittlere Lüfter ist wesentlich kleiner.
Master3
2025-08-14, 09:28:14
Die Raumtemperatur macht meiner Meinung nach bei meiner Konfig kaum was aus. Der PC heizt gut das Zimmer auf und da sind es auch schon im März mal gute 25-26°C. Letztens hatte ich sogar mal 29°C. Der PC ist in der Ecke unterm Tisch, da wird es sicher noch heißer sein.
Tja, vielleicht ist es das Problem...
VRAM ist Hynix und da habe ich hohen Temperaturen eingesehen.
Die Lüfterdrehzahlen sind irgendwo bei 1100 bis 1200rpm. Ich müsste es mal genau loggen. Jedenfalls lass ich immer das AMD Overlay mitlaufen und bisher waren die Werte über die Monate sehr ähnlich.
Aber die Karte ist leise und stabil. Ich höre dann hauptsächlich die Gehäuselüfter, weil ich die hochdrehen lasse.
dargo
2025-08-14, 09:37:25
Die Raumtemperatur macht meiner Meinung nach bei meiner Konfig kaum was aus. Der PC heizt gut das Zimmer auf und da sind es auch schon im März mal gute 25-26°C. Letztens hatte ich sogar mal 29°C. Der PC ist in der Ecke unterm Tisch, da wird es sicher noch heißer sein.
Tja, vielleicht ist es das Problem...
WTF? :freak:
Also solche Späße wie aktuell mit ~26°C Raum habe ich nur im Hochsommer. Herbst/Winter/Frühling bin ich eher bei 20-22°C Raum. Wie warm ist denn deine Budde? Oder läuft die Heizung noch zusätzlich dann im März bei dir? Und mit Heizung meine ich nicht den PC. :D
dargo
2025-08-14, 09:52:19
Ich habe jetzt mal den Kampf in GoW aufgenommen. Damit kann jeder wunderbar alle Daten sehen.
C4gmOQRGh8c
Raum = 25,9°C
Auffällig ist, dass manchmal der Takt relativ stark einbricht und somit auch der Verbrauch. Das ist mir im Gameplay selbst noch nicht passiert. Eventuell noch ein kleiner Bug im Treiber mit der ReLive-Aufnahme. Im Gameplay selbst (Im Video auch zu sehen) sehe ich ganz selten mal eine deutliche Abweichung von Power zum eingestellten Wert, ich gehe hier dann aber eher von kleinen Fehlern der Auslesetools aus. Der Takt bricht dann nämlich nicht ein. Bitte auch daran denken, dass der max. Boost im Video u.U. etwas kleiner ausfällt da sich die ReLive-Videoaufnahme sicherlich etwas vom Powerbudget schnappt.
btw.
Die Qualität von AV1 ist großartig. :love2: Endlich ein deutlicher Fortschritt vs. HEVC @RDNA2. :up:
Meine custom Lüftersteuerung sieht mittlerweile so aus. Min. ~800RPM, max. 1.090RPM.
93890
Habe das Temperaturtarget etwas nach unten geschoben da ansonsten die letzte Stufe P5 selten anspricht mit 1090RPM da der GPU-Hoptspot immer wieder die 70°C, trotz ~26°C Raum nicht erreicht bzw. überschreitet. :freak: Wahrscheinlich werde ich das noch weiter runter schieben da ich das gleiche "Problem" bei tieferen Raumtemperaturen auch haben werde. Min. 45°C, max. 65°C sollten dann denke ich immer passen.
Master3
2025-08-14, 10:00:21
WTF? :freak:
Also solche Späße wie aktuell mit ~26°C Raum habe ich nur im Hochsommer. Herbst/Winter/Frühling bin ich eher bei 20-22°C Raum. Wie warm ist denn deine Budde? Oder läuft die Heizung noch zusätzlich dann im März bei dir? Und mit Heizung meine ich nicht den PC. :D
Wir haben ein gut isoliertes Haus. Die Wärme die innen produziert wird, bleibt auch drin. Ich hab meinen PC im Bürozimmer, was recht klein ist. Das heizt sich schnell auf. Im Winter brauche ich so gut wie keine Heizung, da schon allein meine Körperwärme mit Laptop und Bildschirm im Homeoffice reicht.
Und wenn ich dann den PC zum zocken starte und über 300W nur vom PC ins Zimmer gepustet werden, wird es schnell warm. So ist das halt :)
Rancor
2025-08-14, 10:02:42
Wir haben ein gut isoliertes Haus. Die Wärme die innen produziert wird, bleibt auch drin. Ich hab meinen PC im Bürozimmer, was recht klein ist. Das heizt sich schnell auf. Im Winter brauche ich so gut wie keine Heizung, da schon allein meine Körperwärme mit Laptop und Bildschirm im Homeoffice reicht.
Und wenn ich dann den PC zum zocken starte und über 300W nur vom PC ins Zimmer gepustet werden, wird es schnell warm. So ist das halt :)
Bau dir ne Klimaanlage ein um die Hitze vom PC wegzukühlen. Anders wirst du bei nem gut insolierten Hause die Hitze so schnell nicht mehr los.
dargo
2025-08-14, 10:03:50
Ah.. ok. Spart man sich gut Heizungskosten. :D
Bau dir ne Klimaanlage ein um die Hitze vom PC wegzukühlen.
Lol... erstmal die Budde mit XYZ aufheizen, dann mit Klimanlage wieder wegkühlen. Sowas nennt man wohl neuerdings CO2-Neutralität. X-D Und dann wundern sich alle, dass die Städte immer wärmer werden. :crazy:
Master3
2025-08-14, 10:09:05
Bau dir ne Klimaanlage ein um die Hitze vom PC wegzukühlen. Anders wirst du bei nem gut insolierten Hause die Hitze so schnell nicht mehr los.
Wir haben seit letzten Jahr tatsächlich eine große Splitklima, aber nur für das EG. Bringt leider nix im OG wo das Büro ist. Da geht man aktuell unten aus dem Kühlschrank hoch in das Wüstenklima.:freak:
Aber gut, das Thema hat ja nix mehr mit den 9070er Karten zu tun.
Tigershark
2025-08-14, 10:22:32
Bei absoluten (Raum-)Temperaturunterschieden zwischen 22° und 26° würde ich auch behaupten, dass es vernachlässigbar ist im Rahmen dessen, was wir uns hier anschauen. Wenn sich in einem solchen Szenario bspw. die Hotspot-Temp um 20° unterscheidet, liegt das nicht den 4° Raumtemperatur-Differenz.
In other news - ich habe jetzt auch eine 9070 (ASUS Prime), allerdings ist die wassergekühlt. Habt ihr mal mit 3DM Steel Nomad getestet? Ich fand das das recht sensibel reagiert hat, als ich damals meine 6800 getestet habe und habe es mal auf die 9070 losgelassen.
Auf die Schnelle sehe ich da keine großen Auffälligkeiten zwischen meinem bisherigen "Safe-UV-Mode-Setting" von -40mV und den anderen Settings.m.man hängt immer im Powerlimit und bei -100mV UV "bezahlt" man 2,6% Mehrperformance mit 20% mehr consumption. So weit, so erwartbar schätze ich...mich würde hier aber mal ein Quervergleich von dem Setting mit 250W PT (+10%) vs. einer 9070XT interessieren, was die Score angeht. @Dargo - Du lässt Deine doch idR mit 250W PT laufen, oder? Könntest Du mal eine Runde Steel Nomad drehen und die FPS posten bitte?
#1 https://s1.directupload.eu/images/250814/temp/ijieqxnw.png (https://www.directupload.eu/file/d/9011/ijieqxnw_png.htm)
#2 https://s1.directupload.eu/images/250814/temp/z84ixc3z.png (https://www.directupload.eu/file/d/9011/z84ixc3z_png.htm)
#3 https://s1.directupload.eu/images/250814/temp/4voe92u3.png (https://www.directupload.eu/file/d/9011/4voe92u3_png.htm)
#4 https://s1.directupload.eu/images/250814/ipn4dtoh.jpg (https://www.directupload.eu)
dargo
2025-08-14, 10:37:07
So weit, so erwartbar schätze ich...mich würde hier aber mal ein Quervergleich von dem Setting mit 250W PT (+10%) vs. einer 9070XT interessieren, was die Score angeht. @Dargo - Du lässt Deine doch idR mit 250W PT laufen, oder? Könntest Du mal eine Runde Steel Nomad drehen und die FPS posten bitte?
Welches Setting bei mir wünschst du dir genau? :D Die -50mV mit max. 252W oder was ganz anderes?
Tigershark
2025-08-14, 10:41:19
Ja, genau dieses. Danke! :up:
dargo
2025-08-14, 11:17:08
Musste erstmal die Demo installieren.
btw.
Der Benchmark ist so kurz da heizt sich ja gar nichts auf. :freak: 65°C Hotspot... lol. X-D
-50mV, max. 252W
93894
Stock @max. 304W
93895
Tigershark
2025-08-14, 11:37:44
Ne, heizen tut in der einen Minute gar nix, das stimmt :-P
Aber aus irgend einem Grund ist das sehr sensibel was UV angeht und man hat sehr schnell einige Durchläufe mit unterschiedlichen Settings abgerissen zwecks Quervergleiche. Mein "sicherer" Test der Wahl sind ansonsten Fortnite-Sessions, aber da muss man eben deutlich mehr Zeit mitbringen.
Danke für den Test - 68,41FPS für die XT vs. 67,9FPS für die nonXT bei gleichem Powerbudget ist jetzt doch deutlich näher beieinander als es die specs so vermuten lassen...
dargo
2025-08-14, 11:47:36
Danke für den Test - 68,41FPS für die XT vs. 67,9FPS für die nonXT bei gleichem Powerbudget ist jetzt doch deutlich näher beieinander als es die specs so vermuten lassen...
Du vergleichst da etwas Äpfel mit Birnen. Non XT = -100mV, XT = -50mV. :) Aber selbst mit gleichem Undervolting wird der Unterschied klein ausfallen, das wusste ich schon vorher. Deshalb war ich lange am grübeln ob es überhaupt eine XT werden soll wenn ich ca. 250W nur anpeile.
Aber aus irgend einem Grund ist das sehr sensibel was UV angeht und man hat sehr schnell einige Durchläufe mit unterschiedlichen Settings abgerissen zwecks Quervergleiche.
Ich fürchte da irrst du dich. :) Nomad läuft hier mit -100mV problemlos durch, Ratchet & Clank überlebt nicht mal -60mV.
-100mV, max. 252W
93896
Tigershark
2025-08-14, 12:07:07
Du vergleichst da etwas Äpfel mit Birnen. Non XT = -100mV, XT = -50mV. :) Aber selbst mit gleichem Undervolting wird der Unterschied klein ausfallen, das wusste ich schon vorher. Deshalb war ich lange am grübeln ob es überhaupt eine XT werden soll wenn ich ca. 250W nur anpeile.
Ich fürchte da irrst du dich. :) Nomad läuft hier mit -100mV problemlos durch, Ratchet & Clank überlebt nicht mal -60mV.
-100mV, max. 252W
93896
Hm... gut, dann kann man das bzgl. der Empfindlichkeit wohl nicht von RDNA2 aus übertragen. Gut zu wissen!
dargo
2025-08-14, 12:24:35
Nee... das auf keinen Fall. Mein absolutes worst case bisher ist das eine Savegame in Ratchet & Clank was ich mir auch gesichert habe. :)
dargo
2025-08-15, 10:14:42
Also der Kühler der Hellhound XT ist wirklich unglaublich beeindruckend. :eek:
Ich habe das mal bei 26,5°C Raum mit CP77 und dem Stock Powerlimit von 304W @Silent Bios und Stock Lüftersteuerung getestet. Mit dem Silentbios scheint Powercolor hier 89°C (möglicherweise noch etwas höher) als Temperaturtarget für den GPU-Hotspot anzusetzen. Ich bin jetzt lange mit diesen max. 304W in CP77 gefahren und die Lüfter gingen langsam auf max. 9xxRPM hoch (kein Panikmodus in Sicht :up:) und manchmal auch auf ~800RPM langsam wieder runter. Dabei ging der GPU-Hotspot nicht über 86°C hinaus. Absoluter Wahnsinn kann man nur sagen bei den heißen Temperaturen aktuell, dem Powerbudget und den mickrigen Lüfterdrehzahlen. :O Insbesondere dann unter dem Aspekt wie kompakt und leicht diese Grafikkarte dann auch tatsächlich ist. Wobei 327mm sich jetzt nicht unbedingt kurz anhören, dennoch wirkt die Karte imo recht kompakt. Die sehr dicke Swift XT hatte mich schon leicht schockiert. Und dennoch ist letzteres um Welten bei Kühlung unterlegen. Ich würde sagen Lüfter und Kühlerdesign bei der Hellhound XT ergeben die perfekte Kombination. :up:
Es hat sich wohl herumgesprochen, dass die Hellhound XT höllisch gut ist. Der Preis ist wieder deutlich über 700€ gestiegen.
dargo
2025-08-15, 11:33:56
Jo... leider für potenzielle Interessenten. Meine Hellhound XT bleibt definitiv, für 586,27€ ein no brainer. :up: Auch wenns ein Rückläufer war. Wobei keine Ahnung warum dieses tolle Stück Hardware bei jemanden Retoure ging. Hier überzeugt in jeder Hinsicht das Gesamtpaket. =)
horn 12
2025-08-15, 13:20:58
Speicher war/ ist das Problem bei den ersten Chargen der Hellhound XT gewesen
Dieser war gleich mal mit Stock Settings bei 93 - 94 Grad bei mit und Hotspot auch nicht mal 85 Grad und GPU um die 57 - 58 Grad.
dargo
2025-08-15, 13:32:15
Speicher war/ ist das Problem bei den ersten Chargen der Hellhound XT gewesen
Zum Glück hatte ich zum Release keine zum guten Kurs bekommen. :D Manchmal lohnt sich etwas zu warten. :)
Dieser war gleich mal mit Stock Settings bei 93 - 94 Grad bei mit und Hotspot auch nicht mal 85 Grad und GPU um die 57 - 58 Grad.
Das Delta von 27°C kommt mir auch sehr hoch vor bei 304W, selbst für die 317W mit Performance Bios. Irgendwie scheinen mir die neueren Chargen einiges besser zu sein. Also auf der thermischen Seite.
Edit:
Hehe... diese Szene in GoW hängt immer noch voll im CPU-Limit wenn ich an der Tür klebe. Achtet mal auf den GPU-Takt und die Power. :D
https://i.postimg.cc/yg2ZP6nf/God-of-War-2025-08-15-22-32.jpg (https://postimg.cc/yg2ZP6nf) https://i.postimg.cc/2VQZQDWw/God-of-War-2025-08-15-22-34.jpg (https://postimg.cc/2VQZQDWw)
An dieser Stelle ist im Gamecode generell was kaputt. :D
https://i.postimg.cc/B8KLvfJH/God-of-War-2025-08-15-22-41.jpg (https://postimg.cc/B8KLvfJH) https://i.postimg.cc/PpnLpVqc/God-of-War-2025-08-15-22-42.jpg (https://postimg.cc/PpnLpVqc)
dargo
2025-08-16, 08:28:06
Hier noch ein kleines Beispiel aus GoW wie sich der Taktoffset bei N48 verhält. Ich verwende ja aktuell -50mV bei max. 252W. Für diesen Vergleich habe ich jetzt das Powerlimit auf Stock 304W angehoben damit man die Unterschiede noch klarer sieht. Ich dachte anfangs der Taktoffset würde eventuell zusätzlich die real anliegende Spannung reduzieren. Dabei ist das natürlich Quatsch. Die real anliegende Spannung fällt mit dem Taktoffset nur geringer aus weil sich der max. Boost eben dadurch verringert. Sind einfach andere Boost-Taktraten innerhalb der veränderten V/F-Kurve.
kein Taktoffset mit -50mV @max. 304W
https://i.postimg.cc/JGxgKKsB/God-of-War-2025-08-16-08-14.jpg (https://postimg.cc/JGxgKKsB)
-300Mhz mit -50mV @max. 304W (Karte läuft in ein Taktlimit)
https://i.postimg.cc/tsmcGTtq/God-of-War-2025-08-16-08-15.jpg (https://postimg.cc/tsmcGTtq)
-500Mhz mit -50mV @max. 304W (Karte läuft in ein Taktlimit)
https://i.postimg.cc/zLsP3cc4/God-of-War-2025-08-16-08-15-1.jpg (https://postimg.cc/zLsP3cc4)
Sorry für die falschen Farben, ist HDR. Wie man hier wunderbar sehen kann ist das hohe Boosten lassen von N48 super ineffizient. ;) Imo hätte AMD den max. Boosttakt nicht mit 3450Mhz sondern ~3Ghz beziffern sollen. Wobei ich hier mit -50mV den max. Boosttakt natürlich wesentlich höher provoziere. Oder anders ausgedrückt... bei viel mehr als ~950mV leidet die Effizienz von N48 schon spürbar.
PS: 8% mehr Takt bringen hier nur 3% mehr Leistung bei 27% mehr Power.
horn 12
2025-08-16, 09:25:09
Obwohl Dargo, hatte 7900XTX MBA für 680 Euro verkauft und somit eben auch nur 100 Euro für die Hellhound 9070 XT ausgegeben
und seit 5 Monaten Spaß damit.
Dies muss man auch wieder sehen!
PS:
Nun Läuft Mafia TOC mit ca. 3 Ghz und 1220 U/min bei 57 GPU und 76 Hotspot, Speicher 86 bis 88 Grad.
dargo
2025-08-16, 10:12:38
Obwohl Dargo, hatte 7900XTX MBA für 680 Euro verkauft und somit eben auch nur 100 Euro für die Hellhound 9070 XT ausgegeben
und seit 5 Monaten Spaß damit.
Dies muss man auch wieder sehen!
Dieses Thema ist sehr individuell ausgeprägt. :)
Mir hätte die Karte zb. vor Monaten nichts gebracht da ich schlicht und ergreifend keine Zeit für solche Spielereien hatte. Auch fehlen mir immer noch interessante, neue Games für diese Karte. So spiele ich jetzt GoW neu und später noch TLOU1 und TLOU2. Vielleicht kommt bis Winter endlich dann was Interessantes an neuen Games für mich. Aktuell habe ich hier einfach eine große Spieleflaute. Solche Perlen wie zb. TLOU kommen leider nur alle ~5 Jahre. ;(
PS:
Nun Läuft Mafia TOC mit ca. 3 Ghz und 1220 U/min bei 57 GPU und 76 Hotspot, Speicher 86 bis 88 Grad.
Schon besser. :) Spiele eventuell noch etwas mit dem Powerlimit nach unten wenn du Luft bei fps hast. Das sollte das Delta bei der GPU-Temp. noch etwas reduzieren und die Vramtemp sollte davon auch etwas profitieren. Weit hast du es nicht mehr bis 1.100RPM. ;) Aber vielleicht stören dich die ~1200RPM bereits nicht, auch das ist sehr individuell.
horn 12
2025-08-16, 11:02:41
Nun, man hört die Karte und Gehäuselüfter mit 40% jene beim Gamen nicht
Und selbst 1300 U/min sind noch sehr angenehm bei der XT Hellhound... laut mir zumindest
OgrEGT
2025-08-16, 11:58:55
So wie es aussieht hat Horn ca 20°K Delta GPU Temp/Hotspot und Dargo ca 10°K?
Edit
Falsch geschaut da ggf nicht vergleichbares PT...
Wie sieht das bei gleichem PT aus?
dargo
2025-08-16, 12:20:18
Ich weiß bis jetzt nicht welcher Betriebspunkt mir besser gefällt. :D
"Dauerhaft" die Karte eher im 252W PT-Limit ohne Taktoffset laufen zu lassen oder @RDNA2-Style dank MPT mit max. 261W PT und -500Mhz (also nie mehr als ~2,875Ghz) damit es öfter auch Taktlimit gibt und die Karte somit immer wieder mal je nach Heizlast mit weniger Wattchen läuft? :tongue:
Raum = 25,8°C
https://i.postimg.cc/hXQPF12y/God-of-War-2025-08-16-12-14.jpg (https://postimg.cc/hXQPF12y)
Auch schon 22xW im Gaming @GoW in 4k + FSR 4 balanced gesehen. :)
https://i.postimg.cc/7fLp74zz/God-of-War-2025-08-16-22-30.jpg (https://postimg.cc/7fLp74zz)
btw.
FSR 4 und HDR auf dem OLED sind ne Wucht in GoW. :massa:
Edit:
Wenn ich aber am oberen Beispiel sehe wieviel Power verschwendet wird nur damit die Karte "uneingeschränkt" hoch boosten darf bleibe ich wahrscheinlich bei dem maximalen Taktoffset mit dem etwas höheren Powerlimit von 264W. :)
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.