Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 9070 & 9070 XT Review-Thread
Seiten :
1
2
3
4
5
6
7
[
8]
Tesseract
2025-07-06, 13:03:51
bei gut implementiertem zero fan gehen die nicht ständig an und aus, da hat man quasi eine passive karte am desktop und eine aktive in spielen. leiser bekommt man ein system unter "2D" nicht.
dargo
2025-07-06, 13:07:48
bei gut implementiertem zero fan gehen die nicht ständig an und aus, da hat man quasi eine passive karte am desktop und eine aktive in spielen. leiser bekommt man ein system unter "2D" nicht.
Es gibt nicht nur die beiden Extremen Idle/Games. Korken bemängelt bsw. das Verhalten von ZeroFan @Youtube bei der Hellhound XT, ergo Teillast. Ich finde passive Kühllösungen einfach Grütze bei GPU/CPU. Mir wäre viel lieber wenn die Hersteller endlich bei den Graka-Lüftern mehr Hirnschmalz (eventuell limitiert hier aber auch der Kostendruck) investieren würden damit die Dinger in Idle auch mal runter auf 300-400RPM gehen. Das ist immer noch deutlich kühler als passiv und das hört kein Mensch aus einem geschlossenem Gehäuse raus bei den flachen Dingern.
RoughNeck
2025-07-06, 13:40:40
Zero RPM ist sinnvoll, um die Lüfter zu schonen. Ohne die Möglichkeit die Temperaturschwellen dafür anzupassen und - wie du schon sagst - niedrige Lüfterdrehzahlen zuzulassen, ist es aber einfach nicht zu Ende gedacht.
Lüfter schonen?
Das ist doch Quatsch. Ich habe bis heute keine vernünftige Zero RPM gesehen, die Asus 3080 TI die gestern hier hatte (WLP und Pads wurden erneuert) lässt die Lüfter so komisch anfahren dass es störend ist (mich würde es stören).
Die 4090 von Gainward welche meine bessere Hälfte hat, macht beim anlaufen der Lüfter auch komische Geräusche.
Meine 5090 von Gigabyte quietscht auch etwas wenn die Lüfter anlaufen. Meine Schwester hat eine Power Color 7800XT Hellhound Sakura schieß mich tot, die quietscht auch wenn die Lüfter anlaufen.
Einfach nur nein.
Gute Lüfter, vernünftige Lüfterkurve und fertig. Niemand braucht den pseudo passiv Mode, das haben die damals eingeführt da die schon damals keine Lüfterkurven einstellen konnten und haben es so verkauft um uns weiß zumachen es wäre dazu da um die Lüfter zu schonen.
Ist doch ähnlich wie bei den Autos mit der Start / Stop.
Ich finde passive Kühllösungen einfach Grütze bei GPU/CPU. Mir wäre viel lieber wenn die Hersteller endlich bei den Graka-Lüftern mehr Hirnschmalz (eventuell limitiert hier aber auch der Kostendruck) investieren würden damit die Dinger in Idle auch mal runter auf 300-400RPM gehen. Das ist immer noch deutlich kühler als passiv und das hört kein Mensch aus einem geschlossenem Gehäuse raus bei den flachen Dingern.
Richtig, ganz deiner Meinung.
Aber dann heißt es wieder, WIR sind eine besondere Zielgruppe, das ist nicht so leicht zu realisieren, bla, bla, bla.
Tesseract
2025-07-06, 14:07:41
Es gibt nicht nur die beiden Extremen Idle/Games.
ich habe mit keinem wort idle erwähnt. es gibt designs da geht unter sustained 60W oder so überhaupt nix an und selbst bei ~120W spikes erst nach 10+ sekunden. da kann man das system stundenlang normal passiv in 2D verwenden. es gibt keinen grund warum sich bei einem gigantischen kühlerklotz der hunderte watt abführen kann bei lächerlichen 15-40W im schnitt am desktop ein lüfter drehen sollte.
dargo
2025-07-06, 14:14:58
Ist doch ähnlich wie bei den Autos mit der Start / Stop.
X-D
Größter bullshit ever um Steuern zu sparen. :freak: Erste Aktion nach dem Motorstart diesen Mist deaktivieren, ist schon im Blut. Hätte ich Zugriff auf mein Fahrzeug würde ich den Mist dauerhaft deaktivieren. Aber dann meckert wahrscheinlich wieder der TÜV. :uclap:
Lurtz
2025-07-06, 15:03:09
bei gut implementiertem zero fan gehen die nicht ständig an und aus, da hat man quasi eine passive karte am desktop und eine aktive in spielen. leiser bekommt man ein system unter "2D" nicht.
Ich tabbe recht viel beim Spielen, klar geht er dann ständig an und aus.
Ex3cut3r
2025-07-06, 15:14:31
Nö, bei guten die Lüftern hört man gar nicht das die anlaufen. ASUS ist IHMO was das angeht der beste. Gigabyte der schlimmste.
dargo
2025-07-06, 15:33:39
Naja... die Anlaufgeschwindigkeit spielt auch eine große Rolle. Mit 500-600RPM anzulaufen und dabei ruhig zu bleiben ist kein Kunstwerk. Gibt es überhaupt eine Gigabyte Karte die mit 600RPM anläuft? :freak:
Tesseract
2025-07-06, 15:53:44
Ich tabbe recht viel beim Spielen, klar geht er dann ständig an und aus.
warum sollte er? falls das spiel beim tab komplett stoppt, was die meisten nicht tun, hat eine gute steuerung mehere minuten bzw. grad hysterese bevor die lüfter aus gehen. das müsste schon sehr exotisches verhalten sein und selbst wenn, wo ist das problem wenn der lüfter nach längerem idle statt auf minimale drehzahl auf null geht?
Daredevil
2025-07-06, 15:58:34
Das kommt imho halt auch einfach ganz simpel darauf an, wie viel Eisen auf der Karte klebt.
Je schwerer die Karte und je mehr Material in Form von Alu vorhanden ist, desto größer ist der Puffer, bis das der Lüfter überhaupt startet und ebenso nach Aufheizung, bis das der Lüfter ausgeht. Bei einer 1080ti mit Ref Kühlung ist dieses Verhalten deutlich ausgeprägter als bei z.B. einer 4090 Ref. Letztendlich kann aber auch ein Hersteller die Kurve versauen, da kann man auch einfach selber Hand anlegen.
dargo
2025-07-06, 16:02:08
@Daredevil
In der Theorie ja. In der Praxis sieht es oft nicht so aus da unterschiedliche Werte in die Hysterese reingekloppt werden. Anzahl der Heatpipes variiert, Vapor Chamber ja/nein usw. usf.
Tesseract
2025-07-06, 16:05:17
Das kommt imho halt auch einfach ganz simpel darauf an, wie viel Eisen auf der Karte klebt.
ja natürlich, aber da hat sich die letzten generationen viel getan und die tendenz geht zu höherem verbrauch unter volllast bei gleichzeitig besserem teillastverhalten und massivem einsatz von heatpipes. das ist heute ganz anders als vor 10 jahren.
G3cko
2025-07-06, 16:25:23
Lüfter die ständig ihre Lautstärke ändern finde ich nerviger als ein konstantes Rauschen. Dank WaKü ist das System ohnehin sehr leise.
Der_Korken
2025-07-06, 17:08:25
bei gut implementiertem zero fan gehen die nicht ständig an und aus, da hat man quasi eine passive karte am desktop und eine aktive in spielen. leiser bekommt man ein system unter "2D" nicht.
So ist es. Ich habe auch kein Problem mir die entsprechenden Schwellwerte selbst auszuloten, nur leider lässt AMD den Nutzer seit RDNA3 nicht mehr.
Lüfter schonen?
Das ist doch Quatsch.
Warum sollte das Quatsch sein? Bei mir kommt es durchaus vor, dass ich auf eine Stunde Zocken vier Stunden andere Sachen am Rechner mache, die die GPU kaum belasten. Wozu soll der Lüfter dann fünf Stunden laufen? Ob die Karte mit 35°C oder 45°C läuft, ist doch völlig wurscht.
Ich habe bis heute keine vernünftige Zero RPM gesehen, die Asus 3080 TI die gestern hier hatte (WLP und Pads wurden erneuert) lässt die Lüfter so komisch anfahren dass es störend ist (mich würde es stören).
Die 4090 von Gainward welche meine bessere Hälfte hat, macht beim anlaufen der Lüfter auch komische Geräusche.
Meine 5090 von Gigabyte quietscht auch etwas wenn die Lüfter anlaufen. Meine Schwester hat eine Power Color 7800XT Hellhound Sakura schieß mich tot, die quietscht auch wenn die Lüfter anlaufen.
Das ist dann Schlamperei der Hersteller und hat nichts mit dem Prinzip an sich zu tun. Außerdem sollen die Lüfter ja eben nicht ständig anlaufen, sondern idealerweise einmal am Anfang einer Gaming-Session. Da wird man ein kurzes "Quietschen" wohl gerade so verschmerzen können.
ja natürlich, aber da hat sich die letzten generationen viel getan und die tendenz geht zu höherem verbrauch unter volllast bei gleichzeitig besserem teillastverhalten und massivem einsatz von heatpipes. das ist heute ganz anders als vor 10 jahren.
Ich finde Teillast nach wie vor ausbaufähig. Ich hatte die 9070XT neulich mal ein paar Tage an einem 1440p-Monitor und da hat die Karte gerade im einstelligen Watt-Bereich geklebt. Da musste man sich schon wirklich verrenken, die Lüfter unter 2D mal kurz anzubekommen. In 4K sieht es ganz anders aus, wobei sich die Karte hier je nach Treiberversion und Tagesform anders verhält. Während ich das hier tippe, säuft die Karte knapp 30W, weil rechts dieser drehende (;D)-Smiley ist. Wenn ich runterscrolle und 15 Sekunden warte, dann geht sie auf 17W runter. Scrolle ich hoch, geht sie nach kurzer Zeit wieder auf 27W hoch. Das alles in 165Hz, denn bei 240Hz ist die 9070XT mit meinem aktuellen Treiber nicht unter 30W zu bekommen. Somit ist die Karte dann auch nicht viel besser als meine RX5700 mit Technik von 2019.
dargo
2025-07-06, 17:37:39
Warum sollte das Quatsch sein? Bei mir kommt es durchaus vor, dass ich auf eine Stunde Zocken vier Stunden andere Sachen am Rechner mache, die die GPU kaum belasten. Wozu soll der Lüfter dann fünf Stunden laufen? Ob die Karte mit 35°C oder 45°C läuft, ist doch völlig wurscht.
Jetzt muss ich aber eine blöde Frage stellen. Wenn du also nicht zockst und den Rechner für was anderes verwendest schaltest du jeden Lüfter in deinem System inkl. dem NT-Lüfter ab? Ansonsten bist du nicht konsequent genug. :) Also wenn schon ZeroFan, dann bitte für alles.
nairune
2025-07-06, 17:54:38
Also mit 3840x1600 @144Hz geht die Karte bei mir auf 5W runter.
Wenn man was macht, wird es mehr, ja, aber nur wenn dauerhaft 30W+ anliegen, springen die Lüfter überhaupt mal an. Bekomme ich aber gar nicht mit, weil die Asus-Lüfter langsam und geräuschlos andrehen (die auf der "made by AMD" vorher waren übrigens ähnlich gut). Kommt in der Praxis aber nur vor, wenn ich gerade programmiere und meine flutter app die ganze Zeit mit Animationen laufen lasse. Normales Browsen, Desktop-Zeug = dauerhaft Lüfter aus.
YouTube schaue ich zugegebenermaßen überhaupt nicht, muss ich mal schauen was sie da zieht.
Wenn jemand einen Fullcover-Block installieren will: Lohnt extrem. Temperaturen hier 36/47 °C für die GPU und 70°C für den Vram.
Edit: Raumtemperatur 25°C
Der_Korken
2025-07-06, 19:28:17
Jetzt muss ich aber eine blöde Frage stellen. Wenn du also nicht zockst und den Rechner für was anderes verwendest schaltest du jeden Lüfter in deinem System inkl. dem NT-Lüfter ab? Ansonsten bist du nicht konsequent genug. :) Also wenn schon ZeroFan, dann bitte für alles.
NT ist auch so schon semipassiv und hat zur Not 7 Jahre Garantie. Ansonsten habe ich nur Gehäuselüfter, die ich für 13€ das Stück gekauft habe und ohne großen Aufwand tauschen kann. Geht aber ein Graka-Lüfter kaputt, dann muss ich entweder hoffen, dass der Händler mir die auf Garantie umtauscht (d.h. wenns blöd läuft 6-8 Wochen warten auf ne neue Karte) oder irgendwo auf ebay einen exakt passenden China-Lüfter finden bzw. besser gleich alle drei tauschen, damit nicht einer schneller dreht als die anderen. Wenn ich die Originale auch in 5 Jahren noch für kleines Geld nachkaufen und tauschen könnte, wäre mir die Lebensdauer da auch wumpe.
Tesseract
2025-07-06, 19:30:45
Jetzt muss ich aber eine blöde Frage stellen. Wenn du also nicht zockst und den Rechner für was anderes verwendest schaltest du jeden Lüfter in deinem System inkl. dem NT-Lüfter ab? Ansonsten bist du nicht konsequent genug. :) Also wenn schon ZeroFan, dann bitte für alles.
ein grund warum man die lüfter der GPU abdrehen kann ist die zirkulation im gehäuse aber dafür reichen beim gehäuselüfter extrem niedrige drehzahlen. und high-end netzteile sind doch seit vielen jahren fast alle semi-passiv und drehen unter 150W, 200W etc. garnicht hoch. gibt auch bis 700W voll passiv. ich hab seit jahren keinen netzteillüfter mehr und in dem davor war er in 2D auch nie an.
CPU könnte man natürlich auch komplett abdrehen wenn man einen wuchtigen kühler drauf hat, das lassen die meisten boards aber nicht zu soweit ich weiß.
x-force
2025-07-06, 19:54:09
ich würde die lüfter immer langsam laufen lassen.
auf lange sicht macht es einen unterschied, ob die bauteile 50 oder 80 °delta t leiden müssen, auch wenn beides innerhalb der spec ist.
aufkrawall
2025-07-06, 20:11:10
Zero Fan funktioniert in der Praxis doch ständig wie Murks. Hat man ein Spiel im Hintergrund, was sich auf 30fps limitiert, fällt die GPU-Temperatur je nach Last mitunter so stark, dass die Lüfter ausgehen, nur um dann kurz später wieder anzugehen. Ähnliche Fälle gibt's auf manchen Webseiten mit viel Scrolling, Videowiedergabe mit qualitativen Filtern/Scalern usw. Da reißen dann auch Gehäuselüfter nicht mehr viel. Mit Glück nerven die Lüfter beim Anlaufen dann halt weniger als manche mit unnötig hoher Mindestdrehzahl für Idle, einen anderen "Vorteil" kann ich da nicht erkennen. CPU-Lüfter laufen schließlich auch locker fünf Jahre durch, ohne kaputt zu gehen oder zu nerven.
Daredevil
2025-07-06, 20:23:42
Und manche MacBooks laufen auch schon seit 10 Jahren, obwohl die Intel Kisten darin bei 100°C backen seit Tag 1. Habe gerade mal nachgeschaut, der MacStudio hat im Gegensatz zu den MacBooks kein "ZeroFan" und läuft bei 9w im Idle dauerhaft bei 1000rpm, zwei Lüfter sind hier verbaut. Das ist aber insofern auch völlig egal, weil man die Lüfter nicht hört, obwohl die Kiste auf dem Schreibtisch steht. Erst wenn man mit dem Ohr dran geht, hört man ein leises säuseln. ZeroFan fand ich hier allerdings auch konsequenter, nicht aufgrund der Lebenszeit der Lüfter, sondern weil die Kiste nicht unbedingt Staub sammeln muss. :D
dargo
2025-07-06, 20:31:18
NT ist auch so schon semipassiv und hat zur Not 7 Jahre Garantie. Ansonsten habe ich nur Gehäuselüfter, die ich für 13€ das Stück gekauft habe und ohne großen Aufwand tauschen kann. Geht aber ein Graka-Lüfter kaputt, dann muss ich entweder hoffen, dass der Händler mir die auf Garantie umtauscht (d.h. wenns blöd läuft 6-8 Wochen warten auf ne neue Karte) oder irgendwo auf ebay einen exakt passenden China-Lüfter finden bzw. besser gleich alle drei tauschen, damit nicht einer schneller dreht als die anderen. Wenn ich die Originale auch in 5 Jahren noch für kleines Geld nachkaufen und tauschen könnte, wäre mir die Lebensdauer da auch wumpe.
Ich verstehe deine Sorge. Aber was macht dich so sicher, dass die Grakalüfter mit vielen On/Off Wechsel länger leben als dauerhaft On (bei wenig Last dann eben sehr langsam drehend)?
Daredevil
2025-07-06, 20:46:55
KI sagt folgendes dazu:
- Ein dauerhaft langsam laufender Lüfter hat tendenziell weniger Verschleiß, da er gleichbleibende, niedrige Belastungen ausgesetzt ist und keine abrupten Start-Stopp-Zyklen durchläuft. Die kontinuierliche Bewegung hält das Lager geschmiert und reduziert die Staubansammlung im Stillstand.
- Ein Zero-Fan-Lüfter kann durch häufiges An- und Ausschalten minimal stärkerem Verschleiß ausgesetzt sein, insbesondere wenn die Lüfterkurve schlecht eingestellt ist und häufige Schaltvorgänge verursacht. Moderne Lager sind jedoch so robust, dass dieser Effekt oft vernachlässigbar ist.
Wir optimieren hier vermutlich wieder viel zu übertrieben. In der Realität ist es wahrscheinlich völlig egal. Spannend ist es aber dennoch. :)
Das Optimum ist dann wohl irgendwo in der Mitte. Eine großzügige Lüfterkurve die erst bei 1-2min Last o.ä. getriggert wird, weil genug Metall auf dem Chip klebt. Meine 3090 Ref hatte im Sommer öfter mal das Problem, dass die Lüfter bei YT Videos angesprungen ist, das war sehr Banane. Im Winter war das logischer weise kein Problem.
Der_Korken
2025-07-06, 22:06:15
Am allerliebsten wäre es mir, wenn ich auf dem Desktop komplett auf einer iGPU bleiben könnte. Dann brauch ich mir keine Gedanken machen, dass Youtube die Lüfter irgendwann an bekommt oder der VRAM nicht vernünftig runtertaktet. Leider haben alle AM5-Boards irgendwelche komischen Beschränkungen auf maximal 4K120, obwohl selbst der uralte DP1.4-Standard schon 4K240 erlauben würde mit DSC :rolleyes:.
Für Spiele, die die Last gelegentlich soweit droppen bzw. von vornherein gar nicht erst haben, kann man sich ein Profil anlegen, das identisch zum Default-Profil ist, nur mit ZeroFan aus. Dann bleiben die Lüfter an, solange das Spiel (auch im Hintergrund) läuft. Funktioniert natürlich nur unter Windows.
Ob ZeroFan jetzt gut für die Lebensdauer ist, hängt davon wieviel "Rotorzeit" ein einzelner Anlaufvorgang entspricht. Wenn ich nur eine Spielesession pro Bootvorgang habe, dann hätte ich mit ZeroFan sogar gar keine zusätzlichen Anläufe, sondern würde einfach 50-80% Rotorzeit sparen. Mit dem alten MorePowerTool hatte ich meine RX5700 in der Hinsicht wirklich optimal konfiguriert.
Tesseract
2025-07-06, 22:06:21
Zero Fan funktioniert in der Praxis doch ständig wie Murks. Hat man ein Spiel im Hintergrund, was sich auf 30fps limitiert, fällt die GPU-Temperatur je nach Last mitunter so stark, dass die Lüfter ausgehen, nur um dann kurz später wieder anzugehen. Ähnliche Fälle gibt's auf manchen Webseiten mit viel Scrolling, Videowiedergabe mit qualitativen Filtern/Scalern usw. Da reißen dann auch Gehäuselüfter nicht mehr viel. Mit Glück nerven die Lüfter beim Anlaufen dann halt weniger als manche mit unnötig hoher Mindestdrehzahl für Idle, einen anderen "Vorteil" kann ich da nicht erkennen. CPU-Lüfter laufen schließlich auch locker fünf Jahre durch, ohne kaputt zu gehen oder zu nerven.
die letzte halbe stunde oder so YT video, forum, reddit, news seiten scrollen usw. (https://i.imgur.com/rBKNp3I.jpeg)
bei mpv mit FSRCNNX 16x von 1080p auf 4k ist der verbrauch knapp 50W und die lüfter bleiben ebenfalls aus.
ich hab weder 80°C delta, noch springt random der lüfter an. spiel ist im hintergrund natürlich keines gelaufen. gehäuselüfter sind auf 600rpm.
Lurtz
2025-07-06, 22:27:59
warum sollte er? falls das spiel beim tab komplett stoppt, was die meisten nicht tun, hat eine gute steuerung mehere minuten bzw. grad hysterese bevor die lüfter aus gehen. das müsste schon sehr exotisches verhalten sein und selbst wenn, wo ist das problem wenn der lüfter nach längerem idle statt auf minimale drehzahl auf null geht?
Genau das war die Frage, ob das einen Unterschied bezüglich Langlebigkeit macht.
Nö, bei guten die Lüftern hört man gar nicht das die anlaufen. ASUS ist IHMO was das angeht der beste. Gigabyte der schlimmste.
Die Asus Prime (5070 Ti) ist da mit Standard-Lüfterkurve sogar richtig schlimm. Der Fan-Controller merkt offenbar zu spät, dass die Lüfter anlaufen (oder die Lüfter laufen generell zu spät an), so dass sie massiv hochdrehen nach Zero Fan.
Zero Fan funktioniert in der Praxis doch ständig wie Murks. Hat man ein Spiel im Hintergrund, was sich auf 30fps limitiert, fällt die GPU-Temperatur je nach Last mitunter so stark, dass die Lüfter ausgehen, nur um dann kurz später wieder anzugehen. Ähnliche Fälle gibt's auf manchen Webseiten mit viel Scrolling, Videowiedergabe mit qualitativen Filtern/Scalern usw. Da reißen dann auch Gehäuselüfter nicht mehr viel. Mit Glück nerven die Lüfter beim Anlaufen dann halt weniger als manche mit unnötig hoher Mindestdrehzahl für Idle, einen anderen "Vorteil" kann ich da nicht erkennen. CPU-Lüfter laufen schließlich auch locker fünf Jahre durch, ohne kaputt zu gehen oder zu nerven.
Gibt genug Spiele die bspw. im Menü ähnlich viel wie auf dem Desktop verbrauchen. Dann gehen sie auch ständig an/aus.
aufkrawall
2025-07-06, 22:47:24
Die Asus Prime (5070 Ti) ist da mit Standard-Lüfterkurve sogar richtig schlimm. Der Fan-Controller merkt offenbar zu spät, dass die Lüfter anlaufen (oder die Lüfter laufen generell zu spät an), so dass sie massiv hochdrehen nach Zero Fan.
Ist bei der 5070 auch so. Verkehrte Welt, sonst war das meist mit Radeon übler, aber die 9070 Prime hatte das afair überhaupt nicht.
Komischerweise hilft der Firmware-Modus in AB hier auch nicht. Nutze deshalb die reguläre Steuerung mit 700rpm min, was mich mit den Prime-Lüftern zum Glück noch nicht nervt.
Lurtz
2025-07-06, 22:59:56
Ja, komische Sache. Hatte mal mit jemandem bei Reddit geschrieben, der das gleiche Problem hatte. Der hatte ein neueres BIOS, also wurde es damit zumindest nicht gefixt.
Hat mich zuerst ziemlich irritiert, aber mit angepasster Lüfterkurve gehts.
Ex3cut3r
2025-07-06, 23:23:23
Dann wurde bei der Prime mal wieder wieder gespart, die TUF ist um Welten besser.
aufkrawall
2025-07-06, 23:49:29
Das wird reiner Zufall sein, bei der Radeon war es ja besser und die konnte auch 600rpm Minimum anstatt 700. Die TUF 3060 hatte afair auch irgendwas mit 900rpm Minimum oder so, das wird jede Gen, inkls. potenzieller Fuck-Ups, neu ausgewürfelt. Siehe auch Powercolor Hellhound mit der niedrigeren Minimaldrehzahl bei der non-XT...
nairune
2025-07-07, 01:05:46
Na wenn du sagst, die 9070 Prime hat 600 min, dann ist das bei Asus auch so: Die XT hat nämlich 700 min rpm.
x-force
2025-07-07, 01:53:03
In der Realität ist es wahrscheinlich völlig egal.
denke ich nicht. spin ups reduzieren bei festplatten elementar die lebenszeit und da spielt staub keine rolle.
G3cko
2025-07-07, 06:37:27
Schon Mal ein Lüfter kaputt gegangen? Also in 25 Jahren ist es bei mir vielleicht einer und ich habe mittlerweile vergessen, welcher es war. Dafür habe iche eine ganze Schublade voller Lüfter Kategorie "könnte man ja noch einmal gebrauchen."
GerryB
2025-07-07, 08:43:54
@GerryB
Bei den Werten von techpowerup sieht man auch sehr schön wie laut die XFX-Lüfter tatsächlich sind. Trotz nur 200RPM mehr sind die Lüfter um ganze 10dbA lauter als bei der Nitro+. Wenn mich nicht alles täuscht bedeuten +3dbA bereits doppelt so laut.
kann sein, aber Keiner sollte das 24/7 so lassen
Die Mercury versucht ja dank dummer Voreinstellung den Vram@84°C zu halten. Das ist totaler Blödsinn und in dem Fall besonders schwierig, weil ...
"The GDDR6 memory chips are made by Hynix"
Klingt blöd, aber Jemand der es besonders leise haben will, sollte mehrere Grakas bestellen und die mit Samsung behalten.
(sofern man Das nicht beim Händler erfragen kann)
Daredevil
2025-07-07, 09:08:05
Schon Mal ein Lüfter kaputt gegangen? Also in 25 Jahren ist es bei mir vielleicht einer und ich habe mittlerweile vergessen, welcher es war. Dafür habe iche eine ganze Schublade voller Lüfter Kategorie "könnte man ja noch einmal gebrauchen."
Tatsächlich ja, mehrere sogar.
Die Radeon VII war zwar für Pro User beworben, nach 1 1/2 Jahren waren 4 meiner 6 Karten allerdings auffällig mit lautem Lüfterschleifen, auch bei niedrigen Drehzahlen.
Kontext: Die Babys liefen 24/7 unter Vollast bei 2500-4000rpm.
https://s1.directupload.eu/images/250707/pynoyxtk.jpg
DrFreaK666
2025-07-10, 01:14:04
-1-rWNgZKRU
dargo
2025-07-11, 07:55:24
Hat hier jemand die Sapphire Pulse RX 9070 non XT im Einsatz? Die erreicht mittlerweile 616€ und macht mich neugierig. :D Mich würde mal interessieren ob der Kühler auch für 242W reicht (250W gehen ja nicht wegen max. +10% PT) und dabei genauso extrem leise bleibt wie CB bei 220W gemessen hat.
https://www.computerbase.de/artikel/grafikkarten/radeon-rx-9070-custom-design-test.91526/seite-2#abschnitt_lautstaerke_unter_last
Im Prinzip wären es dann nur 22 Wattchen mehr. Bin immer wieder erstaunt wie gut der Kühler, und vor allem die Lüfter, bei der Pulse sind. Die non XT misst ja nur 28cm und hat sogar nur 4 Heatpipes. Trotzdem nur 70°C GPU-Hotspot bei 1.065RPM Lüfter. Und 1.065RPM bei Pulse sind genauso leise wie 700RPM bei der Hellhound.
Disco_STFU
2025-07-11, 08:33:26
Nix da, JETZT wartest bis Herbst/Winter! :P:tongue:
dargo
2025-07-11, 08:53:59
Das sowieso (also frühestens Mitte August), ich kann mir trotzdem schon mal die nötigen Informationen holen. ;)
Mich macht die 9070XT immer wieder etwas unsicher da ich wie schon bekannt bei N48 allgemein ~250W anpeile. Wenn beide dann nur noch ~5-7% trennen ist die XT irgendwie kompletter Humbug. Ich habe das mal in einem Spiel mit der RX 6800XT mit 4k + balanced Upscaling getestet.
1260p Input = 71fps
1200p Input = 75fps
Kein Schwein sieht einen Unterschied in der Bildqualität auf dem 4k 27" OLED mit 166ppi und schon hast du die fehlenden ~6% aufgeholt. :ulol: Und mal ehrlich... wenn was mit 9070 @250W nicht spielbar ist trifft das genauso auf die 9070XT @250W zu. Die non XT wird für mich halt interessant erst wenn eine Pulse oder Pure Richtung ~600€ geht.
konkretor
2025-07-11, 10:47:09
Test 9070 GRE
https://www.computerbase.de/artikel/grafikkarten/amd-radeon-rx-9070-gre-china-test.93409/
https://www.pcgameshardware.de/Radeon-RX-9070-GRE-Grafikkarte-281249/Tests/Review-Benchmarks-Details-Performance-1474877
Der_Korken
2025-07-11, 10:49:36
CB hat zusammen mit PCGH die China-9070 aka 9070GRE getestet:
https://www.computerbase.de/artikel/grafikkarten/amd-radeon-rx-9070-gre-china-test.93409/
https://www.pcgameshardware.de/Radeon-RX-9070-GRE-Grafikkarte-281249/Tests/Review-Benchmarks-Details-Performance-1474877/
Grob zusammengefasst, liegt sie leistungstechnisch da, wo man sie erwarten würde, aber in 4K und/oder Raytracing fällt sie immer stärker hinter die großen Modelle zurück, weil die 12GB Speicher limitieren. Dass die 9600XT mehr Speicher hat und dadurch dieser Bruch im Lineup ist, ist ebenfalls unschön.
Ich persönlich vermisse diese Karte nicht auf dem europäischen Markt.
Ein saftiges 41-Minuten-Schnitzel für alle, die nicht lesen möchten. =)
5OkJ0RAOU6M
MfG
Raff
Exxtreme
2025-07-11, 10:58:11
Joa, die Karte ist an ganz falschen Stellen beschnitten und frisst auch noch viel Strom. Und ist mit ~450 EUR auch relativ teuer wenn man bedenkt, dass sie mti dem beschnittenen RAM nicht sehr zukunftsfähig sein dürfte.
dargo
2025-07-11, 11:03:33
Joa, die Karte ist an ganz falschen Stellen beschnitten und frisst auch noch viel Strom.
Der Stromverbrauch ist wirklich etwas enttäuschend. Aber auch kein Wunder wenn man sich die Frequenzen anschaut. Das ist eine beschnitte 9070XT die von AMD ebenfalls gekeult wird. Entsprechend fällt der Verbrauch zu hoch aus. AMD hätte das Ding imo bei 180W bremsen sollen.
PS: und ich meine damit nicht die extrem hohen Frequenzen wo der Vram ausgeht.
PPS: Vram Hotspot bei der Pulse mit lächerlichen 920RPM nur bei 81°C? Das kann eigentlich nur Samsung sein. :tongue:
Hakim
2025-07-11, 13:10:37
16GB hätten der Karte deutlich besser gepasst.
DrFreaK666
2025-07-11, 14:28:58
Die GRE ist nix. Mal schauen wo der Preis am Ende landet
mczak
2025-07-11, 16:40:11
Joa, die Karte ist an ganz falschen Stellen beschnitten und frisst auch noch viel Strom.
Finde eigentlich das mit dem Stromverbrauch ist ganz ok. Die 7900 GRE lag bei der Effizienz hinter der 7900 XT, man schlägt hier aber die 9070 XT klar (jedenfalls solange der GRE nicht der Speicher ausgeht), weil die Karte eben nicht ganz so hoch geprügelt wurde - wenn auch natürlich mehr als die 9070, aber man liegt immer noch auf einem ganz akzeptablen Niveau.
Technisch gesehen finde ich es interessant wieviel man da aus der doch sehr geringen Speicherbandbreite herausholt (mutig von AMD dass man beim Speicher auch noch zu "Ausschussware" greift - selbst eine popelige RTX 5050 setzt auf 20 gbps Chips).
Bei früheren rdna (und insbesondere auch gcn) Chips hat man ja des öfteren gemunkelt die würden nicht so sparsam mit der Speicherbandbreite umgehen - aber bei rdna 4 ist davon definitiv nichts mehr zu sehen. Eine 9070 hat 50% mehr Speicherbandbreite (und auch 33% mehr L3), eine 5070 sogar 55% mehr (bei gleich grossem Cache) (auch wenn es nichts neues ist dass Blackwell mit der höheren Bandbreite im Vergleich zu Ada nicht gerade viel anzufangen weiss), selbst die RTX 4070 / Super hatten da 17% mehr zu bieten. Man verliert natürlich schon Performance aber das hält sich doch sehr in Grenzen.
OgrEGT
2025-07-11, 19:41:25
Das sowieso (also frühestens Mitte August), ich kann mir trotzdem schon mal die nötigen Informationen holen. ;)
Mich macht die 9070XT immer wieder etwas unsicher da ich wie schon bekannt bei N48 allgemein ~250W anpeile. Wenn beide dann nur noch ~5-7% trennen ist die XT irgendwie kompletter Humbug. Ich habe das mal in einem Spiel mit der RX 6800XT mit 4k + balanced Upscaling getestet.
1260p Input = 71fps
1200p Input = 75fps
Kein Schwein sieht einen Unterschied in der Bildqualität auf dem 4k 27" OLED mit 166ppi und schon hast du die fehlenden ~6% aufgeholt. :ulol: Und mal ehrlich... wenn was mit 9070 @250W nicht spielbar ist trifft das genauso auf die 9070XT @250W zu. Die non XT wird für mich halt interessant erst wenn eine Pulse oder Pure Richtung ~600€ geht.
Die 9070XT kannst Du ja auf 250W laufen lassen, hast aber wenn es doch vielleicht wirklich mal notwenig werden würde noch Headroom für noch etwas mehr Leistung... (PT80 - 243W vs PT100 - 304W +3-11%)
https://www.computerbase.de/artikel/grafikkarten/amd-radeon-rx-9070-xt-test-undervolting-powertarget.91939/seite-2
dargo
2025-07-11, 20:01:04
304W sind für mich völlig inakzeptabel. Ergo stehen die gar nicht zur Debatte. Mich interessiert praktisch nur 250W XT vs. 250W non XT. Und bei den AIBs die für mich in Frage kommen trennen beide ca. 80€. Ziemlich unsexy die XT dann für magere +5-7%.
Edit:
Deinen verlinkten CB-Test finde ich trotzdem sehr aufschlussreich, danke dafür.
Dort heißt es die 9070XT liefert mit 80% PT bzw. 243W 96% der Stock XT. Das bedeutet, dass es nach diesem Test hier im Schnitt bei Raster und 4k 51,84fps von 54fps kommend sind.
https://www.computerbase.de/artikel/grafikkarten/amd-radeon-rx-9070-xt-rx-9070-test.91578/seite-2#abschnitt_performancerating_mit_und_ohne_rt_in_3840__2160
Von CB weiß ich auch, dass eine 9070 non XT von 220W auf 245W um 6% zulegt. Pulse 220W vs. Pure 245W.
https://www.computerbase.de/artikel/grafikkarten/radeon-rx-9070-custom-design-test.91526/seite-2#abschnitt_fps_und_frametimes_in_uhd
Ergo 50,24fps von 47,4fps kommend. Irgendwie erscheint mir die 9070 XT unter diesen Aspekten halt verdammt sinnfrei. :freak: Meine zuvor grob geschätzten +5-7% sind offenbar noch viel zu optimistisch gewesen.
OgrEGT
2025-07-11, 20:37:01
Ja klar... Perf/W ist die non XT klar besser als die XT
https://www.igorslab.de/en/amd-radeon-9070xt-and-9070-in-the-test-clock-energy-with-crowbar-and-at-least-some-reason-as-a-counterpoint/5/
dargo
2025-07-11, 21:01:50
Ich beziehe mich da nicht mal auf Perf/W sondern eher auf Perf/Euro bei gleichen Powerbudget von 250W. Der Aufpreis der XT ist dann bei +3-4% Performance einfach nur lächerlich. Die XT macht imo nur Sinn wenn man sie keulen möchte bzw. 300+W Powerbudgets akzeptiert. Also solche Scherze wie 330-340W. Wenn ich das so betrachte tendiere ich immer mehr zu einer Sapphire Pulse non XT die ich dann mit 242W betreibe. Mal sehen ob die schon in 4 Wochen für 600€ zu bekommen ist.
nairune
2025-07-12, 00:53:46
Edit:
Deinen verlinkten CB-Test finde ich trotzdem sehr aufschlussreich, danke dafür.
Dort heißt es die 9070XT liefert mit 80% PT bzw. 243W 96% der Stock XT. Das bedeutet, dass es nach diesem Test hier im Schnitt bei Raster und 4k 51,84fps von 54fps kommend sind.
https://www.computerbase.de/artikel/grafikkarten/amd-radeon-rx-9070-xt-rx-9070-test.91578/seite-2#abschnitt_performancerating_mit_und_ohne_rt_in_3840__2160
Von CB weiß ich auch, dass eine 9070 non XT von 220W auf 245W um 6% zulegt. Pulse 220W vs. Pure 245W.
https://www.computerbase.de/artikel/grafikkarten/radeon-rx-9070-custom-design-test.91526/seite-2#abschnitt_fps_und_frametimes_in_uhd
Ergo 50,24fps von 47,4fps kommend. Irgendwie erscheint mir die 9070 XT unter diesen Aspekten halt verdammt sinnfrei. :freak: Meine zuvor grob geschätzten +5-7% sind offenbar noch viel zu optimistisch gewesen.
Das ist aber eine Milchmädchenrechnung:
Beim Vergleich der 9070 Modelle wurde nur ein Spiel getestet (Metro) und das ist möglicherweise eines, das gut skaliert, wenn man sich die Zahlen anschaut.
Zum Vergleich hast du die avg. Ergebnisse der XT aus 4 Spielen herangezogen, bei denen zwei "gut" skalierten (6-7% bei stock vs 80% PT) und zwei schlecht (0-2%), siehe Einzelergebnisse.
In den "großen" Haupttests gibt es Metro leider nicht, aber der Unterschied non-XT zu XT schwankt zwischen 7 und 19%.
Also hier kann man schlecht alles zusammenwürfeln.
Am Ende ist der Unterschied sicher nicht riesig, aber höchstwahrscheinlich mehr als die 2%, die du jetzt angenommen hast.
Wenn man ein "recht gut skalierendes" (hypothetisches, da die Tests bei CB alle unterschiedliche Spiele verwenden) Spiel heranzieht mit 16% zwischen non-XT und XT und 6% zwischen stock und 80% PT, sowie +6% für das angehobene non-XT Powerlimit, dann steht es 89% für die 247W non-XT vs 94% für die 243W XT, im Vergleich zur stock-XT (100%).
Was bezüglich der XT übrigens exakt mit meinen 3D-Mark-Ergebnissen übereinstimmt - und mit 222W habe ich immer noch mehr Leistung als die 247W non-XT. Wobei das knapp ist, da müsste man schon mit dem selben Spiel exakt nachprüfen.
Also die 640€ XT würde ich immer wieder nehmen, vernehme keinen Mucks beim Zocken (y)
dargo
2025-07-12, 08:19:07
Das ist aber eine Milchmädchenrechnung:
Beim Vergleich der 9070 Modelle wurde nur ein Spiel getestet (Metro) und das ist möglicherweise eines, das gut skaliert, wenn man sich die Zahlen anschaut.
Zum Vergleich hast du die avg. Ergebnisse der XT aus 4 Spielen herangezogen, bei denen zwei "gut" skalierten (6-7% bei stock vs 80% PT) und zwei schlecht (0-2%), siehe Einzelergebnisse.
Das ist zwar richtig... aber bei +11% Power (220W vs. 245W) halte ich +6% Performance absolut für realistisch. Ob es nachher im Schnitt +4-6% sind wayne. Auch ob es nachher +3% oder +5-7% zwischen 250W non XT und 250W XT sind... geschenkt. Wie ich schon einmal gesagt habe... das sind Peanuts die ich spielend durch 60-70p weniger Pixel beim Upscaling ausgleichen kann.
btw.
Wenn ich Starfield und FF16 rausnehme sind es keine 96% mehr sondern 94%, was noch stärker zugunsten non XT spricht.
Ach... und noch was (wo wir schon Korinthenkackerei betreiben :))... selbst wenn ich alle Ergebnisse die mit weniger als +12% bei XT vs. non XT skalieren rausnehme ändert sich nahezu gar nichts.
https://i.postimg.cc/wRJQFjHk/4k-CB.jpg (https://postimg.cc/wRJQFjHk)
Und wenn ich ganz ehrlich zu mir bin sind die 4k Ergebnisse auch Murks weil ich nichts im nativen 4k spiele (außer vielleicht FH5). Ganz einfach weil die Frames zu niedrig sind. Ergo ist das hier praxisrelevanter.
https://i.postimg.cc/LJRFtqRN/1440p-CB.jpg (https://postimg.cc/LJRFtqRN)
Aber das will ich jetzt nicht überbewerten da CB die Pixellast je nach Game mischt. Gleicht sich aber im Schnitt alles wieder aus da CB auch oft Native AA beim Upscaling nimmt. Ergo kommt hier der Upscaling Overhead drauf.
https://www.computerbase.de/artikel/grafikkarten/amd-radeon-rx-9070-xt-rx-9070-test.91578/#abschnitt_testsystem_und_testmethodik
Wenn ich das trotzdem auf die Ergebnisse von 1440p übertrage heißt es 85,6fps (XT @243W) vs. 85,3fps (non XT @245W). Wow... bin beeindruckt von der XT. :freak: Lass es nachher +3% für die XT sein, wie gesagt... solche Pillepalle juckt mich nicht. :)
Am Ende ist der Unterschied sicher nicht riesig, aber höchstwahrscheinlich mehr als die 2%, die du jetzt angenommen hast.
Angenommen hatte ich zuerst 5-7%, ausgerechnet anhand der CB-Beispiele dann 3%.
Wenn man ein "recht gut skalierendes" (hypothetisches, da die Tests bei CB alle unterschiedliche Spiele verwenden) Spiel heranzieht mit 16% zwischen non-XT und XT und 6% zwischen stock und 80% PT, sowie +6% für das angehobene non-XT Powerlimit, dann steht es 89% für die 247W non-XT vs 94% für die 243W XT, im Vergleich zur stock-XT (100%).
Was bezüglich der XT übrigens exakt mit meinen 3D-Mark-Ergebnissen übereinstimmt - und mit 222W habe ich immer noch mehr Leistung als die 247W non-XT. Wobei das knapp ist, da müsste man schon mit dem selben Spiel exakt nachprüfen.
Natürlich wird die XT eingebremst immer minimal besser rauskommen. Die kostet aber auch entsprechend mehr. ;) Und ich sehe da einfach den Mehrwert nicht wirklich. Beim gleichen Preis (oder bissel mehr) nehme ich logischerweise die XT und bremse sie für mich passend ein.
Aktuell sieht das bei der Pulse so aus, jeweils bester Preis:
Pulse non XT = 614,69€
Pulse XT = 718,99€
Da lohnt die XT hinten und vorne nicht. Selbst die 699€ (manchmal 694€) der Hellhound XT sehen gegen die Pulse non XT nicht gut aus. Das würde nur ok aussehen wenn man die non XT bei 220W belässt und die XT bei 304W.
Also die 640€ XT würde ich immer wieder nehmen, vernehme keinen Mucks beim Zocken (y)
Gibts nicht mehr. Du meinst sicherlich die Prime. Und wenn es sowas regulär (gerne auch mit Cashback) irgendwann gibt wird die non XT sicherlich dann bei ca. 560-570€ liegen.
btw.
Wenn non XT dann ist die Hellhound non XT bei mir (neben der Pulse non XT als Favorit) noch nicht ganz aus dem Rennen. Gestern noch hätte ich die Hellhound non XT für 605€ bekommen können.
Und die Daten von CB gefallen mir bei dieser Karte auch ganz gut.
OC-Bios = 227W (max. 250W möglich)
GPU-Hotspot = 77°C
Vram-Hotspot = 87°C
Lüfter = 900RPM bei 29dbA
min. RPM = 600
Die Lüfter würde ich eh mit max. 1.100RPM (eventuell sogar 1.200RPM, muss ich erst hören) laufen lassen, das dürfte also noch gut thermisch und akustisch passen.
horn 12
2025-07-12, 10:17:37
@Dargo
9070 und 9070XT fallen ins Bodenlose
Pulse OHNE XT 579 Euro
aber auch die anderen Karten
https://www.onekillerprice.it/search.asp?testoRicerca=RX+9070&search_off=&search_nov=&marca=&search_statoprod=&amount_min=&amount_max=&ordinamento=#ricerca
Ob da ein REFRESH von AMD kommt im Spätherbst mit mehr Speicher und höherem Takt
und dann in einem Jahr UDNA so gegen November 2026
dargo
2025-07-12, 10:34:47
@Dargo
9070 und 9070XT fallen ins Bodenlose
Pulse OHNE XT 579 Euro
aber auch die anderen Karten
https://www.onekillerprice.it/search.asp?testoRicerca=RX+9070&search_off=&search_nov=&marca=&search_statoprod=&amount_min=&amount_max=&ordinamento=#ricerca
Sehr schön... also ist noch genug Luft für DE da. (y) 580€ für die Pulse non XT finde ich super. :up:
PS: bei euch kostet sogar die Pure non XT nur 609€ aktuell. :freak:
horn 12
2025-07-12, 10:43:09
Nun, bei Euch müssten 560 Euro drinnen sein, 19% gegen 22% Mwst.
Aber so gute Karten für diese Leistung gibt es seit Jahren (5) nicht mehr!
dargo
2025-07-12, 10:51:22
Nun, bei Euch müssten 560 Euro drinnen sein, 19% gegen 22% Mwst.
Jo... und jetzt stelle dir mal vor das Ding landet bei Galaxus zu diesem Preis. Mit Cashback dann 522€. X-D Aber Galaxus versagt leider völlig bei Sapphire Karten, keine Ahnung warum. :usad:
G3cko
2025-07-13, 23:28:35
Und wenn ich ganz ehrlich zu mir bin sind die 4k Ergebnisse auch Murks weil ich nichts im nativen 4k spiele (außer vielleicht FH5). Ganz einfach weil die Frames zu niedrig sind. Ergo ist das hier praxisrelevanter.
https://i.postimg.cc/LJRFtqRN/1440p-CB.jpg (https://postimg.cc/LJRFtqRN)
Wenn ich ganz ehrlich bin hätte ich mehr von dir erwartet. ;)
Eine höhere Auflösung, erhöht nur die GPU-Last und eliminiert den Faktor CPU (CPU-Limit) in Test-Szenarien. Es ist doch sowieso nur eine Momentaufnahme mit 15-20 Spielen im Testparcour. Und da möchtest du doch in einem Grafiktest wissen, welche Grafikkarte wie schnell ist. Wenn du wissen willst wie schnell ist Karte XYZ in Spiel XYZ in meine Auflösung, dann guckt man sich das konkret an. Aber dassa sagt ja auch nur aus was die GPU theoretisch leistet. Deine CPU ist vielleicht langsamer und dann?
Schau dir Mal den Computerbase Test zur 8800GTX an. In niedrigen Auflösungen hoffnungslos im CPU-Limit. Welche Aussagekraft haben da noch Tests in niedrigen Auflösungen. Erkenntnisgewinn fps reichen. Ui grandios. ;)
G3cko
2025-07-13, 23:31:33
@Dargo
9070 und 9070XT fallen ins Bodenlose
Da fällt nichts ins bodenlose. USD/Euro Wechselkurs berücksichtigen.
dargo
2025-07-14, 06:43:02
Wenn ich ganz ehrlich bin hätte ich mehr von dir erwartet. ;)
Eine höhere Auflösung, erhöht nur die GPU-Last und eliminiert den Faktor CPU (CPU-Limit) in Test-Szenarien. Es ist doch sowieso nur eine Momentaufnahme mit 15-20 Spielen im Testparcour. Und da möchtest du doch in einem Grafiktest wissen, welche Grafikkarte wie schnell ist.
Falsch... ich möchte wissen was mir die Grafikkarte jetzt bringt und nicht was sie mir bringen könnte wenn in paar Jahren ein Zen6-X3D/Zen7-X3D im Rechner steckt. Bis dahin ist eh eine schnellere Karte im System wodurch sich Limits wieder verschieben. Wenn meine CPU irgendwo limitiert dann ist das eben der Istzustand und daran wird sich auch nichts ändern auf absehbare Zeit. Mich interessieren praxisrelevante Ergebnisse und keine Theoretischen die ich nicht erleben werde. Jetzt könnte man mit dem Argument kommen aber in naher Zukunft werden Games mit einer höheren GPU-Last kommen. Das mag ja zutreffen, wird aber für mich nichts ändern. Denn wenn ich merke, dass die GPU-Last zu hoch ist mit dem Ergebnis, dass die Framerate zu niedrig für mich ausfällt werden Details reduziert oder Upscaling bis ich für mich akzeptable Frames wieder habe.
Zudem... bei CB heißt es 14,7% in 4k vs. 13,2% in 1440p. Worüber reden wir hier? :freak: Das kann man schon beinah als Messchwankung abstempeln.
btw.
Und sollte hier bei 1440p tatsächlich schon die CPU minimal limitieren habe ich in der Praxis von der 9070XT noch weniger da CB mit einem 9800X3D testet und ich einen 5800X3D im System habe. Jetzt nicht falsch verstehen... natürlich ist der Test von CB vollkommen legitim, er ist halt nur nicht 1:1 auf jedes beliebige System in der Praxis übertragbar. Das ist nichts weiter als best case Szenario wenn man immer die schnellste CPU verwendet.
dildo4u
2025-07-14, 13:19:03
14 Custom 9700XT Modelle im Test.
Powercolor Reaper und ASrock Challenger fehlen da sie nicht mehr produziert werden.
4bvT5XvG65Y
G3cko
2025-07-14, 13:26:39
Drago du erzählst Unsinn.
Entweder deine GPU oder CPU limitiert. Ich guck mir doch nicht an wie alle Autos im Stadtverkehr 50 fahren, um anhand dieser Geschwindigkeit das potenziell schnellste auszuwählen. Daher ist es völlig unerheblich ob nun Tempo 70 oder Tempo 100 Schild. Die einzige Aussage die man treffen kann: Grafikkarte schafft Richtgeschwindigkeit. Glückwunsch zu der Erkenntnis.
Bulldozer ist super, wenn man in 8k spielt. Glückwunsch, auch ein 200 Jahre altes Auto kann souverän die Spielstraße in Schrittgeschwindigkeit meistern. ;)
Kauf doch einfach für Budget XYZ die schnellste Komponente für dein Geld. Egal ob deine CPU die Karte manchmal nicht voll auslasten kann, na und? CPU-Limit böse, GPU Limit gut? Beide Komponenten haben Geld gekostet oder nicht? Warum muss die eine Komponente immer voll ausgelastet sein, und bei der anderen ist es egal?
Die Grafiklast/ Anforderungen steigen ohnehin schneller als die Anforderungen an die CPU. Selbst wenn deine CPU deine Grafikkarte aktuell nicht voll auslastet, mit der Zeit wird sie es. Das liegt in der Natur der Sache, weil die Performancezuwächse bei Grafikkarten größer sind als bei CPUs.
DrFreaK666
2025-07-14, 13:57:13
Falsch... ich möchte wissen was mir die Grafikkarte jetzt bringt und nicht was sie mir bringen könnte wenn in paar Jahren ein Zen6-X3D/Zen7-X3D im Rechner steckt...
Kann dir anbieten, dass wir mal vergleichen. Hab zwar nur eine Non-XT und meine CPU ist ca. 15% langsamer, aber wenn du willst...
aceCrasher
2025-07-14, 16:01:33
CPU-Limit böse, GPU Limit gut?
CPU-Limit is tatsächlich böse, führt häufig zu schlechteren Frametimes, in dem Fall würde ich lieber cappen, im GPU-Limit ist das nicht nötig.
dargo
2025-07-14, 16:23:09
Kann dir anbieten, dass wir mal vergleichen. Hab zwar nur eine Non-XT und meine CPU ist ca. 15% langsamer, aber wenn du willst...
Nicht nötig, ich weiß ja längst was mich erwartet. :) Bei mir wird es wahrscheinlich auch die non XT, die ich dann auf 240-250W "hochjage". Wird spontan nach den Preisen entschieden in paar Wochen.
Entweder deine GPU oder CPU limitiert.
Breaking News Bro.
14 Custom 9700XT Modelle im Test.
https://youtu.be/4bvT5XvG65Y
Ähm... 70+°C Vram Hotspot bei 4 Modellen? Das riecht doch schon wieder nach Samsung statt Hynix. Ist der Reviewer darauf genauer eingegangen?
G3cko
2025-07-14, 16:29:06
CPU-Limit is tatsächlich böse, führt häufig zu schlechteren Frametimes, in dem Fall würde ich lieber cappen, im GPU-Limit ist das nicht nötig.
Das gilt /galt in der Vergangenheit vor allem für CPUs mit zuwenig Cores/Threads in der Breite. Gerade beim 6600k (4C/4T) in BF1 zu beobachten. CPU ist zu 100% auf allen Cores ausgelastet und es kommt zu Mikrorucklern, da der kritische Mainthread nicht rechtzeitig bearbeitet wurde. CPUs mit vielen Kernen dagegen gläten die Frametimes.
14 Custom 9700XT Modelle im Test.
Powercolor Reaper und ASrock Challenger fehlen da sie nicht mehr produziert werden.
https://youtu.be/4bvT5XvG65Y
Interessant wäre zu wissen, ob Hynix oder Samsung Rams verbaut wurden. Die Differenzen sind imo ein wenig zu hoch. Man könnte es vielleicht erahnen, anhand der gezeigten Vram-Temperaturen...
dargo
2025-07-15, 07:12:03
Hier sieht das bei der 9070 non XT Pulse auch nach Samsung Speicher aus.
GCWKWEwoeGQ
Warum die Lüfter bei ihm aber so hoch drehen bleibt ein Rätsel. In allen Tests die ich zur Pulse non XT gesehen habe laufen die Lüfter deutlich langsamer.
Hakim
2025-07-15, 15:26:49
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-amd-radeon-treiber-vergleich-2025.93443/#abschnitt_benchmarksergebnisse_im_standardparcours
Etwas merkwürdig finde ich das die 5080 langsamer geworden sein soll.
DrFreaK666
2025-07-15, 15:50:55
Die Treiber bei Nvidia hatten in letzter Zeit mit Problemen zu kämpfen. Vielleicht wurde etwas Performance für Stabilität geopfert
dargo
2025-07-16, 18:39:44
14 Custom 9700XT Modelle im Test.
Powercolor Reaper und ASrock Challenger fehlen da sie nicht mehr produziert werden.
https://youtu.be/4bvT5XvG65Y
Jetzt habe ich mir das Video in Ruhe komplett angesehen.
Bin etwas überrascht von der RX 9070 XT Swift bezüglich Kühlerperformace, und zwar positiv. Finde es auch gut, dass HWU in einem geschlossenen Gehäuse testet und keinem offenen Aufbau.
Raumtemperatur = 21°C
GPU-Edge = 59°C
GPU-Hotspot = 79°C
Vram-Hotspot = nur 75°C (vermutlich wegen Samsung)
Lüfter = 1.100RPM
Das ganze bei 304W.
Bin immer noch unschlüssig ob RX 9070 non XT Pulse/Hellhound und beide auf 240-250W hochjagen oder doch eher XFX RX 9070 XT Swift und diese bei 250W bremsen. :ulol: Die Swift würde dann ca. 30€ mehr kosten. :uponder: Also wenn schon die Swift XT, dann nur bei einer guten Cashback-Aktion. Ich hatte bisher keinen vernünftigen Test zur XFX RX 9070 XT Swift gefunden und habe die eher durchwachsenen Ergebnisse der Swift non XT auf die Swift XT übertragen. Hatte dabei aber völlig übersehen, dass die Swift non XT nur 290mm lang ist und die Swift XT 325mm. Mehr Kühlfläche hilft in der Regel auch mehr (wobei es wieder komisch ist warum der größere Quicksilver Ziegelstein nicht besser kühlt). Jetzt ist halt nur die Frage ob bei 250W 900RPM (die Lüfter sind bei vergleichbaren Drehzahlen leider einiges lauter als die Konkurrenz) immer noch vollkommen ausreichen? :uponder: Würde schätzen eher ja, weil über 50W weniger Abwärme ist schon ordentlich.
Und blöderweise habe ich schon wieder die min. Drehzahl der Swift XT vergessen falls die hier schon mal geteilt wurde. :usad:
Edit:
Mal ein etwas gewagter Quervergleich. :D
Bei Igor kommt die 245W XFX Quicksilver non XT (gleiche Lüfter wie bei Swift XT) recht gut weg.
https://www.igorslab.de/amd-radeon-9070xt-und-9070-im-test-taktorgie-mit-brechstange-und-zumindest-etwas-vernunft-als-gegenpol/9/
Raumtemperatur = 20°C
GPU-Hotspot = ca. 73°C (fast schon lächerlich niedrig)
Lüfter = 900RPM
Bei HWU war die Kühlleistung der Quicksilver XT nicht besser als bei der Swift XT. Sogar minimal schlechter da +100RPM bei den Lüftern für gleiche Hotspot Temperatur.
Falls hier jemand die XFX RX 9070XT Swift im Einsatz hat bitte die min. Drehzahl posten.
GerryB
2025-07-16, 21:01:45
Die Frage ist, wie laut wird z.Bsp. ne nonXT-Pulse@245W, ... dann vllt. doch 30€ mehr für die Swift-XT ?!
Da würde ich mir den größeren Kühler gönnen.(vermutlich ist bei gleichem Fps-Limit die XT sogar sparsamer)
Fps-Limit in der Range, wo die nonXT die 245W schon braucht, aber die XT evtl. nur 235W
Lautstärke auf dem Desktop ist zwar schön und gut aber letzten Endes solls auch in Games kühl bleiben.
dargo
2025-07-16, 21:16:26
Die Frage ist, wie laut wird z.Bsp. ne nonXT-Pulse@245W, ... dann vllt. doch 30€ mehr für die Swift-XT ?!
Die kriegst du nur auf 242W hoch. Aber Spaß bei Seite... PCGH hat diese mit 0,2 Sone bei 1.000RPM gemessen, offener Aufbau allerdings.
https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/Specials/Custom-Designs-Hands-on-Test-1467296/3/
Das war die leiseste Grafikkarte seit einer Ewigkeit. Von daher gehe ich hier davon aus, dass bei 22W mehr nur ~1.200RPM nötig sind um gleiche Temps. zu erreichen. Möglichweise ist nicht mal das nötig weil 70°C GPU-Hotspot sind ein Witz.
Bei CB hat die Pulse non XT auch extrem gut in einem geschlossenen Gehäuse abgeschnitten.
https://www.computerbase.de/artikel/grafikkarten/radeon-rx-9070-custom-design-test.91526/seite-2#abschnitt_lautstaerke_unter_last
btw.
Bei der Pulse non XT rechne ich schon mit ~600€, gestern hätte ich die für 606,xx€ kaufen können. Ich vergleiche nie reine GH-Preise sondern Händlerpreise + Cashback. Oder jetzt wäre auch die Hellhound non XT (die flache Flunder :D) für 604,30€ direkt bestellbar mit Cashback.
https://www.galaxus.de/de/s1/product/powercolor-radeon-rx-9070-oc-hellhound-16-gb-grafikkarte-55665865?utm_campaign=preisvergleich&utm_source=geizhals&utm_medium=cpc&utm_content=2705624&supplier=2705624
Das ist für mich die Messlatte. :)
Edit:
Kurz und schmerzlos... für mich stehen nur diese Kandidaten zur Auswahl.
RX 9070 non XT Pulse
RX 9070 non XT Hellhound
RX 9070 XT Swift (hier bin ich noch etwas unsicher) sofern ich sie für ca. 620-630€ bekomme
GerryB
2025-07-16, 21:27:28
mit I2C Script ist only the Sky das Limit
btw.
man kann das Script aber auch zum UVen benutzen, ... müsste mal reloadll im pcgh-thread fragen, wie weit runter
SOC+VDDCI+Vram stabil läuft, ... wäre dann ähnlich nice wie bei RDNA2@MPT
https://extreme.pcgameshardware.de/threads/amd-radeon-rdna-4-laberthread.657190/page-171#post-11898605
2664 MHz -120mV SOC -120mV VDDIO -100mV VDDCI@hynix
Da langsam rantasten!
(sonst bleibts evtl. beim Anmeldebildschirm hängen)
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.