PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 9070 & 9070 XT Review-Thread


Seiten : 1 2 [3] 4 5 6

GerryB
2025-03-10, 10:02:03
Die XT scheint aber wirklich über dem optimalen Betriebspunkt und gar nicht mal so gut zu sein...
scheint die Sonne ?

ein Bsp. aus dem CB-Thread:
https://www.computerbase.de/forum/threads/big-navi-rx-6700xt-6800-xt-6900xt-overclocking-undervolting.1983202/page-360#post-30374102

Muss ja nicht Jeder 15%+ Mehrperformance anstreben.
bis ca. 10% sind ohne übetriebene Settings drin

Dural
2025-03-10, 10:15:43
Welche Einstellung?

Für die Mitleser wärs interessant, was genau eingestellt wurde, was denn evtl. instabil im SN war.
Manche haben z.Bsp. Probleme mit Vram 2700 FT.

Das ist gar nicht so einfach zu sagen, die Werte sind immer irgend wie anders. :freak:

PT 110% (375W)
Lüfter fix ca. 60%
Memory 2700MHz (Real etwas weniger)
GPU Takt auf 0 (Stock keine Änderung)
UV -75mv (Überall wird geschrieben das bis 0,2Volt gehen, laut GPUZ sind es im Schnitt aber nur ca. 0,05Volt sieht man zb. auch im Video vom Roman)
Achtung UV ist je nach Benchmark immer anders eingestellt, zumindest bei mir.

Vram gehe ich nicht mehr über 2700MHz, alles darüber macht Probleme. Interessant finde ich ja das es Tests mit der gleichen Karte gibt die 20 Benchmarks mit 2850MHz laufen liessen...

robbitop
2025-03-10, 10:21:54
Halte ich für ein Gerücht. Ansonsten erkläre mir mal warum eine Sapphire Pure 150$ teurer ist als eine Pulse oder eine Powercolor Hellhound 150$ mehr kostet als eine Reaper? Du wirst dort nichts finden was 150$ Preisdifferenz (25%) rechtfertigt.
GN hat sich mit der Verteilung der Preise relativ zum MSRP doch ziemlich genau befasst und diese statistisch ausgewertet und zwar über den großen Schnitt vieler Modelle.

GerryB
2025-03-10, 10:57:28
UV -75mv (Überall wird geschrieben das bis 0,2Volt gehen, laut GPUZ sind es im Schnitt aber nur ca. 0,05Volt sieht man zb. auch im Video vom Roman)
Achtung UV ist je nach Benchmark immer anders eingestellt, zumindest bei mir.

Vram gehe ich nicht mehr über 2700MHz, alles darüber macht Probleme.
Danke!
sieht normal aus

UV -75mV ist etwas viel! (-200mV ist totaler Quatsch, Cherrypicking-szene)
Da würde ich 24/7 vllt. mal noch auf -68 gehen.

Vram 2700 muss vllt. auch nicht sein. ... 2680 mit Standard Timing reichen, ...
um mal alle Unwägbarkeiten auszuschliessen.

Die PCGH-User hatten in Space Marine 2 dann den Härtetest.

dargo
2025-03-10, 10:57:51
GN hat sich mit der Verteilung der Preise relativ zum MSRP doch ziemlich genau befasst und diese statistisch ausgewertet und zwar über den großen Schnitt vieler Modelle.
Das beantwortet meine Frage nicht.


Achtung UV ist je nach Benchmark immer anders eingestellt, zumindest bei mir.

Wat? :freak: Dir ist schon klar, dass diverse Workloads unterschiedliche Frequenzen und somit auch Spannungen zur Folge haben?

Raff
2025-03-10, 12:04:15
Radeon RX 9070 "XTX" im Eigenbau: Muss sich die Geforce RTX 5080 fürchten? (https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/Tests/vs-RTX-5070-Ti-5080-Release-Benchmark-Overclocking-1467630/)

Inkl. bisschen Hintergrund, wie das erreicht wurde. :)

MfG
Raff

Armaq
2025-03-10, 12:11:23
Radeon RX 9070 "XTX" im Eigenbau: Muss sich die Geforce RTX 5080 fürchten? (https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/Tests/vs-RTX-5070-Ti-5080-Release-Benchmark-Overclocking-1467630/)

Inkl. bisschen Hintergrund, wie das erreicht wurde. :)

MfG
Raff
Netter OC Test, aber die Watt pro Frame Rechnung ist auf jeden Fall eine Überlegung wert. RDNA 4 kommt mit dem OC von euch nicht über RDNA 3 hinaus. War das der Grund für die Absage an eine Big RDNA4?

Disco_STFU
2025-03-10, 12:11:35
Passend dazu:

Radeon RX 9070 XT outperforms GeForce RTX 5080 in Cyberpunk 2077 and 3DMark after undervolting, 3.3 GHz clock reached

https://videocardz.com/newz/radeon-rx-9070-xt-outperforms-geforce-rtx-5080-in-cyberpunk-2077-and-3dmark-after-undervolting-3-3-ghz-clock-reached

DrFreaK666
2025-03-10, 12:31:55
Welche Games/Benchmarks eignen sich um UV zu testen?

Raff
2025-03-10, 12:47:13
Netter OC Test, aber die Watt pro Frame Rechnung ist auf jeden Fall eine Überlegung wert. RDNA 4 kommt mit dem OC von euch nicht über RDNA 3 hinaus. War das der Grund für die Absage an eine Big RDNA4?

IMHO nicht. Einen fetten Chip taktet man ja ganz bewusst nicht weit über die Kotzgrenze. Mit einer Verdoppelung auf 128 CUs und 2,5 GHz käme man milchmädchenhaft mit 450 Watt aus.

Welche Games/Benchmarks eignen sich um UV zu testen?

Immer nur mit einer Kombination. Siehe hier: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13723654&postcount=15 :)

MfG
Raff

DrFreaK666
2025-03-10, 13:15:06
Ok. Zwei davon hab ich, spiele ich allerdings nicht so gerne ^^
Aber danke

DrFreaK666
2025-03-10, 13:33:57
edit: falscher Thread

Dural
2025-03-10, 13:44:39
Wat? :freak: Dir ist schon klar, dass diverse Workloads unterschiedliche Frequenzen und somit auch Spannungen zur Folge haben?

Und jetzt überleg mal wie so ich beim Benchen überall einen anderen UV Wert hatte...



@Raff

Hattet ihr nicht überall ganz andere Werte und Takt, der Takt schwankt massiv! Ein durch benchen aller möglichen Benchmarks erachte ich mit dem was ich bis jetzt weis als unmöglich mit 3,2GHz+ GPU und 2,8GHz+ Speicher. Nicht mit dem PT das vorhanden ist, und ob es die Karten auch packen würden steht ja auch nicht fest.

Gerade Metro zieht extrem viel Leistung.

aufkrawall
2025-03-10, 13:47:30
Bislang war hier Kena mit FSR 4 via Optiscaler extrem zickig, scheint bei Bro (hatte zwei Primes bestellt und bekommen) offenbar auch mit -100mV nicht zu laufen.

Raff
2025-03-10, 13:53:38
@Raff

Hattet ihr nicht überall ganz andere Werte und Takt, der Takt schwankt massiv! Ein durch benchen aller möglichen Benchmarks erachte ich mit dem was ich bis jetzt weis als unmöglich mit 3,2GHz+ GPU und 2,8GHz+ Speicher. Nicht mit dem PT das vorhanden ist, und ob es die Karten auch packen würden steht ja auch nicht fest.

Gerade Metro zieht extrem viel Leistung.

Der Durchschnittstakt über 43 Spiele-Benchmarks in 4 Auflösungen liegt bei über 3,2 GHz (3,27 beim Rasterizing, 3,21 beim Pathtracing, 3,20 beim Raytracing). Richtig gemein drunter geht nur Mexodus EE (gut 3 GHz bei 370 Watt), weshalb es immer als Härtetest (https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/Tests/Preis-Test-kaufen-Release-Specs-Benchmark-1467270/6/#a3) herhalten muss. Das im Test ist eine sehr gut gehende, recht aufwendig optimierte Karte, kein Schnellschuss. Mit schuld an meinen Augenringen. ;) Lies dir den Artikel gerne mal in Ruhe durch.

MfG
Raff

DrFreaK666
2025-03-10, 13:57:42
Kommt ein ähnlicher Artikel auch zur 9070?

robbitop
2025-03-10, 15:16:29
@Raff
Wann kommt der LSFG3.0 vs AFMF2.1 vs Motion Frames Vergleich? ^^ Gern wieder als Blindtest Video.

LSFG bietet jetzt auch einen adaptive mode.

Allerdings sind die Artefakte bei LSFG auch in der neusten Version nicht sooo berühmt. Würde mich mal interessieren wie sich AFMF 2.1 und Motion Frames schlängt.

Ggf. hast du ja auch bereits Eindrücke die du teilen kannst? ^^

@Alle Radeon Besitzer: erlaubt AFMF2.1 eigentlich das Processing für Frame Generation auf eine 2. GPU (z.B IGP) zu packen um Performance zu erhöhen? Bei LSFG ist das eine Option.

gedi
2025-03-10, 17:55:26
Der Durchschnittstakt über 43 Spiele-Benchmarks in 4 Auflösungen liegt bei über 3,2 GHz (3,27 beim Rasterizing, 3,21 beim Pathtracing, 3,20 beim Raytracing). Richtig gemein drunter geht nur Mexodus EE (gut 3 GHz bei 370 Watt), weshalb es immer als Härtetest (https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/Tests/Preis-Test-kaufen-Release-Specs-Benchmark-1467270/6/#a3) herhalten muss. Das im Test ist eine sehr gut gehende, recht aufwendig optimierte Karte, kein Schnellschuss. Mit schuld an meinen Augenringen. ;) Lies dir den Artikel gerne mal in Ruhe durch.

MfG
Raff

Der Artikel ist klasse, danke dafür. Mit nem Alphacool-Block bitte nochmals wiederholen. Ich denke, dann ist im Schnitt knapp 5080 Performance drin. Die Taichi wäre auch meine favoritisierte Karte.

dargo
2025-03-10, 19:04:41
Ist jetzt natürlich kein Langzeittest von Cracky, aber von 340W runter auf 240W bei einem Verzicht auf 4% Performance finde ich schon ganz nett. :tongue:
https://youtu.be/xoH7sXSZp1I?si=EeZU7QC3lkyjcbD_&t=6334

gedi
2025-03-10, 19:14:29
Falls noch nicht bekannt: https://x.com/hms1193/status/1899160920997417327?s=19

The_Invisible
2025-03-10, 19:20:39
Falls noch nicht bekannt: https://x.com/hms1193/status/1899160920997417327?s=19

Plötzlich flexen alle mit RT/PT herum, genauso wie ich vorausgesagt habe ;)

robbitop
2025-03-10, 19:24:20
Link funktioniert hier nicht. Ggf zukünftig einen Quote dazu posten.

gedi
2025-03-10, 19:31:05
Link funktioniert hier nicht. Ggf zukünftig einen Quote dazu posten.

https://wccftech.com/heres-how-you-can-run-amd-fsr-4-on-basically-any-title/

Schnitzl
2025-03-10, 19:46:15
Plötzlich flexen alle mit RT/PT herum, genauso wie ich vorausgesagt habe ;)
natürlich weil es eben mit der Version 4 bei beiden Herstellern so langsam benutzbar ist.
Für Normalsterbliche ohne rumgefrickel wohlgemerkt

w0mbat
2025-03-10, 20:29:47
Ist mit einer 4090 und DLSS3 schon eine Weile nutzbar, aber erst jetzt so langsam mainstream.

The_Invisible
2025-03-10, 20:33:12
natürlich weil es eben mit der Version 4 bei beiden Herstellern so langsam benutzbar ist.
Für Normalsterbliche ohne rumgefrickel wohlgemerkt

Hä das ging schon mit rtx3000 und die 9070er sind in PT auf deren Niveau https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/Tests/Preis-Test-kaufen-Release-Specs-Benchmark-1467270/5/#a1

dargo
2025-03-10, 20:47:36
Schon witzig wie klein das PCB von N48 ist im Vergleich zum Backstein @XFX-Kühler. :ulol:

gWmHiweBQ6E

Schnitzl
2025-03-10, 21:11:19
Ist mit einer 4090 und DLSS3 schon eine Weile nutzbar, aber erst jetzt so langsam mainstream.
also für mich war DLSSS3 auf 1440p nix - auf 4k könnte das evtl. "nutzbar" sein
Jedoch ist DLSS4 breit nutzbar und gut/deutlich besser

imho.
Aber das ist so langsam auch OT hier

aufkrawall
2025-03-10, 21:16:01
Hä das ging schon mit rtx3000 und die 9070er sind in PT auf deren Niveau https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/Tests/Preis-Test-kaufen-Release-Specs-Benchmark-1467270/5/#a1
Gab halt kein FG. War spielbar, aber sah nicht flüssig aus. DLSS war vor Preset E auch deutlich kompromissbehafteter, insbesondere ohne 4k-Monitor.

Master3
2025-03-10, 21:26:15
Heute kam meine 9070 Hellhound.
Der Kühler wirkt schlanker und einfacher als die der 6700XT Aorus Elite.
Trotzdem ist die Hellhound so leise, dass ich die nur in extremen Auslastungen etwas heraushören kann. Minimal hörbar ab 1200upm und darunter ist für mich kein Unterschied zu den Gehäuselüfter zu hören, obwohl die nur so dahinsäuseln. Durch das geringe Lüftergeräusch nehme ich sehr leises Spulenfiepen/pfeifen war.

Weil mich es interessiert hat, habe ich direkt mal UV getestet (PT und Clock Offset unangetastet)
Einfach mal -150mV und Time Spy laufen lassen --> 2,9Ghz Takt
Stürzt jedoch bei FS24 nach wenigen Minuten ab.
-100mV haben nach ca. 20min im FS24 zum Absturz geführt. (2,8Ghz)

In Control mal kurz quer gecheckt wegen der Raytracing Performance zur 6700XT. Dürfte ca. Faktor 3 sein :freak:
In dem Spiel ist mir aufgefallen, dass zu hohes Undervolting kein FPS Gewinn bringt.
X-Belibige Szene ohne Laufbewegung (UWQHD, alles max. inkl. Raytracing)
- 100mV , 2,7 Ghz, 75FPS
- 60mV , 2,6Ghz, 75FPS
-50mV, 2,58Ghz , 74FPS
- Default, 2,45Ghz , 71FPS

Ich lass die Karte jetzt einfach mal mit -50mV laufen und beobachte.

Aktuell bin ich nach Jahren an AC Odyssey dran. Lief mit der 6700XT schon gut. Mit Extrem Hoch in UWQHD im Benchmark 70FPS und im Games meist 60FPS mit 100% GPU Auslastung. Die 9070 kommt im Benchmark nur auf 110 FPS. Altes Game --> keine Optimierungen?

Für mich sind 60FPS als min ausreichend und jetzt wird es interessant. AMD Chill aktiviert und ein 60FPS Minimum definiert. Dann läuft die Karte mit 90W. Gleichzeitig max. FPS auf 90 begrenzt und so schwankt es zwischen den 90W, 150W und ganz selten 200W. Der Lüfter dreht mit 600Upm.
So gefällt es mir.

fizzo
2025-03-10, 22:03:13
Da schließe ich mich gleich an. Heute ist meine 9070 Pure von Amazon.fr (700€) gekommen. War doch keine Nitro+ wie auf der Rechnung vermerkt.

Die Karte ist massiv (3 Slot - 1230gr), hat den selben Kühler wie die XT verbaut und ist werkseitig mit einem TDP von 245 Watt ausgestattet. Die Lüfter sind im Auslieferzustand dabei kaum wahrnehmbar. Auch kein Spulenfliepen.

Unter Volllast und scharfgestellt (PT +10%/UV -110mV) ist der Takt bei Time Spy (28.491 Punkte) zwischen 2,9-3,1Ghz. Temperaturen GPU/HotSpot: 56°C/74°C, Speicher 86°C, Fan max 50% (leichtes Rauschen).

Das mal mein erster, positiver Eindruck.

horn 12
2025-03-10, 23:16:32
@Master3

Meine Hellhound XT kommt morgen an.

DrFreaK666
2025-03-11, 00:32:49
Meine 9070 ist auch auf dem Weg :)

Dant3
2025-03-11, 04:29:25
Habe heute meine 9070 XT Pulse bekommen.
Vom ersten Eindruck her, haben die Luefter ein leicht angenehmeres Laufgeraeusch und sind auch bei gleicher RPM leiser als die meiner 7900 XT Nitro. Die Luefterkurve ist auch bei der Pulse viel zu aggressiv eingestellt, man kann sie ohne Probleme bei voller Auslastung mit 1100~ laufen lassen und hat Temperaturmaeßig immer noch Luft weiter zu drosseln.
OC habe ich nicht groß getestet, 2700 mhz Speicher scheint sie aber schon mal in Cyberpunk zu schlucken.

Das große bzw. kleine "Aber" sind mal wieder die Spulen. Auf ca. 30 cm Entfernung gehört, ist es bis 100 fps in einem komplett leisen Raum, ohne Ton vom Spiel, im Mesh - Gehäuse mit sehr langsam drehenden Lüftern (6x NF-A12x25@600rpm / 2x NF-A14@max 700rpm) okay aber hörbar, darüber wird es schon aufdringlicher.
Bei 60 fps mit 300 Watt Auslastung ist sie aber wie meine Nitro ebenfalls sehr sehr leise.
Ich würde schätzen, im Vergleich zu meiner 7900er sind die Spulen ca. 10 - 20% lauter bzw. der Ton ist auch etwas anders.

Da die ganze Geschichte nur ein günstiges Side - Grade wäre (dank UVP) und obwohl ich FSR4 schon gerne hätte, tendiere ich dazu bei der 7900er zu bleiben, da ich sehr empfindlich bin, was Lautstaerke betrifft. Wenn ich jetzt keinen direkten vergleich zur aktuellen Karte hätte, könnte ich mit der Pulse aber definitiv leben. Habe schon viel viel schlimmere Karten gehört als diese.

basix
2025-03-11, 07:59:04
Schon witzig wie klein das PCB von N48 ist im Vergleich zum Backstein @XFX-Kühler. :ulol:

Ja, regt ein wenig zum schmunzeln an :)

Aber ist nicht nur bei N48 so ;) Bei RDNA3 waren die PCBs interessanterweise noch lang. Bei Nvidia wurden die PCBs über Ampere, Ada und Blackwell immer kürzer und die Kühler immer fetter. Bei den 9070ern sind die Kühler mittlerweile auch sehr fett (mit positivem Effekt auf Temperaturen und Lautstärke). Das trägt dann zu diesem disproportionalen Eindruck bei (kleines PCB, grosser Kühler).

Und ich finde kurze PCBs nichtmal schlecht. Solange man die höhere Power Density gut gekühlt bekommt (VRAM scheint hier am kritischten zu sein) gefallen mir so kleine PCBs ganz gut.

Meine 9070 ist auch auf dem Weg :)

Gz, welche ist es geworden?

RoNsOn Xs
2025-03-11, 08:58:06
Vor allem zu welchem Preis? Eine zu bekommen, ist ja nicht das Problem. Die Frage richtet sich immer welcher Preis es akzeptiert wurde. :freak:

DrFreaK666
2025-03-11, 09:06:09
...Gz, welche ist es geworden?

ASUS Prime 9070 OC

Vor allem zu welchem Preis? Eine zu bekommen, ist ja nicht das Problem. Die Frage richtet sich immer welcher Preis es akzeptiert wurde. :freak:

Habe sie letzte Woche Donnerstag für 629€ vorbestellt, also UVP.

gedi
2025-03-11, 09:58:22
Falls noch nicht bekannt: https://www.igorslab.de/neue-version-des-morepowertools-mpt-und-finale-des-redbioseditors-rbe-zum-download/

robbitop
2025-03-11, 09:59:38
Kann man damit die Powerlimits nun für RDNA4 umgehen? Gerade auch nach oben hin?
Schön 400-500W mit Wakü und dann 3,7 GHz X-D

x-force
2025-03-11, 10:11:24
Kann man damit die Powerlimits nun für RDNA4 umgehen? Gerade auch nach oben hin?
Schön 400-500W mit Wakü und dann 3,7 GHz X-D

ab 1,1v geht es deutlich auf die lebenszeit.

man braucht:
1,0v für 3,1ghz
1,1v für 3,3ghz

skalierte es linear, was es definitiv nicht tut, bräuchtest du
1,3v für 3,7ghz

dürfte nicht alt werden :wink:

robbitop
2025-03-11, 10:14:00
Der8auer hat 3,3 GHz mit -200mV hinbekommen. Und es war rein powerlimited

Raff
2025-03-11, 10:17:11
Der8auer hat 3,3 GHz mit -200mV hinbekommen. Und es war rein powerlimited

Und welche Spannung wurde nach dem angeblichen Offset angezeigt? ;) Nie im Leben ist das volllaststabil, nicht mal ansatzweise.

-> Der Wert von minus 0,2 Volt wird unter Last nie 1:1 gesetzt, die AMD-Software trollt.

MfG
Raff

robbitop
2025-03-11, 10:17:43
Keine Ahnung ^^ Bei George von chipsandcheese wurden jedenfalls 3,7 GHz bei compute workloads angezeigt (erinnert an rdna3). Aber bei gamingworkloads einfach power limitiert. Bei RDNA3 ging ja auch deutlich mehr wenn man das Powerlimit wegnahm mit evc und mit Wakü gekühlt hat. Daher der Gedanke das mit N48 auch zu machen wenn anscheinend sogar 3,7 GHz bei compute workload geht.

Gorkon
2025-03-11, 10:34:56
Ab Minute 09:50 in Romans Video:

3030MHz bei 1,011V (-0mv / 100% PT)
3120MHz bei 1,045V (-0mv / 110% PT)
3411MHz bei 0,998V (-200mv / 110% PT)

Viel Spaß bei der grafischen Visualisierung ;)

RoughNeck
2025-03-11, 11:09:43
Ab Minute 09:50 in Romans Video:

3030MHz bei 1,011V (-0mv / 100% PT)
3120MHz bei 1,045V (-0mv / 110% PT)
3411MHz bei 0,998V (-200mv / 110% PT)

Viel Spaß bei der grafischen Visualisierung ;)

Aber nicht Game stabil.
Ein Cyberpunk mit allen Reglern auf rechts in 4K schafft keine 9070 / 9070 XT auch nur Ansatzweiße diese Taktraten bei -200mv. Ich mag Roman und seine Videos sind immer eine Mischung aus Infos und Fun aber das was er da getestet hat ist einfach Blödsinn.

Bekannter von mir hat sich eine Sapphire Nitro 9070 XT gegönnt, hier in Österreich rund 1000€, also weit weit weg von dem was AMD da verkündet hat aber seine 6700 XT wollte nicht mehr (VRAM Fehler ohne ende).
Bei Cyberpunk 2077 in 1440p mit allen auf Anschlag kann er der Karte -0,75mv geben, da ist er dann bei etwa 1,055 - 1,067V und die Karte boostet in auf 3050 - 3080 so in den Bereich. -100mv ist bei ihm Benchmark stabil aber keines seiner Games die er aktuell zockt läuft damit stabil und da geht es nicht im paar Minuten und auch nicht ruhig stehen, sondern spielen.

Klar, seine Karte ist jetzt nicht repräsentativ für alle Karten da draußen aber wenn ich mir die typischen Foren so durchlese, keine Karte kommt auch nur im Ansatz an die Ergebnisse vom Roman ran.

Gorkon
2025-03-11, 14:36:45
Schon klar, dass -0,2V bei den Taktraten nicht stabil sein werden, außer man hat *den* Chip erwischt...und dann würde ich sofort Lotto spielen ;)
Ich bezog mich auch nur auf die Frage was da in Romans Video im GPU-Z angezeigt wurde.

Hayab
2025-03-11, 14:56:17
Meine 9070 Hellhound geht morgen zurueck.
Karte startet immer ohne Probleme wenn sie kalt ist bis ein Restart noetig ist, wenn warm "no signal" bis sie sich wieder abgekuehlt hat auch wenn PC logt in dem Windows. (sehe ich an RGB Komponenten)

Der Treiber hat noch so seine Macken Sword Art Online Fractured Daydream bring die Karte zum Restart aber das ist einzige Spiel das Probleme hatte. Wenn die Karten lange im Idle laeuft, stottert die Maus. VRAM Ueberhitzen das ich am ersten Tag hatte war wahrscheinlich eine Luftblase unter einem VRAM Heatpad und verschwand.

HTB|Bladerunner
2025-03-11, 16:42:28
Ich hatte mir in den letzten Tagen einige Messreihen beim benchen mit 3DMark Steel Nomad angelegt (Sapphire RX9070XT Nitro+).

Eventuell ist das für den einen oder anderen interessant.

Mir war z.B. nicht bewusst, dass durch die Ram-Übertaktung die GPU-Kernspannung weiter sinkt (rot markiert). Das hängt wohl mit dem Power-Limit zusammen. Ist natürlich logisch, irgendwo muss ja eine Umverteilung stattfinden. Das erklärt aber auch, weshalb es hin und wieder zu sporadischen Instabilitäten kommt.

https://i.postimg.cc/dthkjmjJ/Sapphire-RX9070-XT-Nitro.png

aufkrawall
2025-03-11, 16:49:05
Niedrigere Spannung + VRAM-OC ist meist eine ungute Mischung bei AMD, ggf. wegen des Controllers. Insbesondere würd ich erstmal UV/OC ohne VRAM-OC ausloten, ist sonst nichts für schwache Nerven. VRAM-Instabilität kann auch gerne mal die hässlichsten Reboots/Freezes verursachen.
Und wird wohl auch selbst mit der XT bei realen Spielen ohne MSAA nur einen Furz bringen. Bei der Prime hab ich auch so schon ohne VRAM-OC ständig 95°C VRAM.

Colin MacLaren
2025-03-11, 17:58:04
Über 8k im Steel Nomad, gefällt mir immer besser die Karte. Für 689 EUR bin ich schwer beeindruckt.

https://www.3dmark.com/sn/4325041

OgrEGT
2025-03-11, 18:01:27
Hat hier denn schon jemand die Powercolor 9070XT Red Devil oder Hellhound?

Ice-Kraem
2025-03-11, 18:04:04
Welche würdet ihr nehmen? Die Sapphire Pulse 9070 oder die Gigabyte 9070 Gaming? Die Gigabyte habe ich noch nicht im Test gesehen...

Raff
2025-03-11, 18:18:29
Die Gigabyte kenne ich zwar auch nicht, aber die Pulse ist klasse. Schön leise und der Sache gewachsen.

MfG
Raff

GerryB
2025-03-11, 18:19:31
Ich hatte mir in den letzten Tagen einige Messreihen beim benchen mit 3DMark Steel Nomad angelegt (Sapphire RX9070XT Nitro+).

Eventuell ist das für den einen oder anderen interessant.

Was passiert bei Frequenzcap -300 und Vram 2760?
bleiben dann die eff.Volt näher beieinander?
(könnte man so ein stärkeres UVen besser absichern)


btw.
Gerade in 4k steigt bei Vram-OCen die tatsächliche Shaderauslastung und drückt dadurch ein bisschen auf die eff.Volt. = normal
mit Vram@stock haben sicherlich einige Shader noch zuviel Leerlauf

Schnitzl
2025-03-11, 18:25:16
Die Gigabyte kenne ich zwar auch nicht, aber die Pulse ist klasse. Schön leise und der Sache gewachsen.

MfG
Raff
+1
aber auch die kleine non-XT?

Hübie
2025-03-11, 18:32:13
Meine lief jetzt ca. 30 Minuten mit 3400 MHz und 1150 mV. Ob das rockstable ist bezweifle ich aber noch. Bisher sieht das aber gut aus.
Ich habe in der Adrenalin Software den Offset auf - 135 mV gesetzt und schon ging der Takt hoch. Hatte ursprünglich mit - 50 angefangen und dann immer weiter herunter gezogen. Die Spannung blieb zwar immer auf 1150 mV, aber der Takt ging beinahe linear mit dem Absenken nach oben. Das kenne ich so zwar nicht, aber was soll's. Funktioniert. :D

Edit: Die Leistung ist übrigens grob das 1,5-fache meiner 6800XT @2500 MHz. Die Lüfterkurve ist oob für die Katz. Der dreht plötzlich ziemlich hoch um dann wieder herunter zu regeln. :freak:

Raff
2025-03-11, 18:33:20
+1
aber auch die kleine non-XT?

Jo! https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/Specials/Custom-Designs-Hands-on-Test-1467296/3/

Meine lief jetzt ca. 30 Minuten mit 3400 MHz und 1150 mV. Ob das rockstable ist bezweifle ich aber noch. Bisher sieht das aber gut aus.
Ich habe in der Adrenalin Software den Offset auf - 135 mV gesetzt und schon ging der Takt hoch. Hatte ursprünglich mit - 50 angefangen und dann immer weiter herunter gezogen. Die Spannung blieb zwar immer auf 1150 mV, aber der Takt ging beinahe linear mit dem Absenken nach oben. Das kenne ich so zwar nicht, aber was soll's. Funktioniert. :D

GPU-Z-Rendertest, oder was? Das wäre viel zu gut, um wahr zu sein. Kauf dir mal Mexodus EE (https://www.gog.com/en/game/metro_exodus_gold_edition) und zeig deiner Karte, was Schmerzen sind. :biggrin:

MfG
Raff

Hübie
2025-03-11, 18:35:27
Ich hab Metro EE, aber müsste es herunter laden. Mache ich gleich. Bei 50 MBit/s dauert das aber. Der Test war Tessmark. Ähnlich wie Furmark, wird aber nicht als Powervirus erkannt.

Edit: Screenshot
https://1drv.ms/i/c/a3366ae7aeda0e90/Ec7r8n1wXORFjWxP5NWKqYgBct4C03_HuUdZEa5djGojRA?e=VW4e0T

Ex3cut3r
2025-03-11, 18:41:16
Ganz heftig ist Metro, die Karte taktet mit 375Watt gerade mal mit 29xxMHz

Die Karte bräuchte locker ein PT von 450Watt+ so eine kleine Stromfresser GPU gab es noch nie.

Definitiv. Beeindruckt mich, wie viel die XT an Strom zieht. Mit 330–350W als Standardverbrauch liegt sie deutlich über einer 5070 Ti, die gerne mal bis zu 100W weniger benötigt. Die Effizienz ohne manuelle Anpassungen ist, um es klar zu sagen, ziemlich schlecht.

Schnitzl
2025-03-11, 18:51:36
Jo! https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/Specials/Custom-Designs-Hands-on-Test-1467296/3/
ich wundere mich wieder warum bei Sapphire die VRAM Temperaturen am höchsten sind.
Mal versucht die etwas runter zu bringen? (andere Pads oder extra Lüfter)

GPU-Z-Rendertest, oder was? Das wäre viel zu gut, um wahr zu sein. Kauf dir mal Mexodus EE (https://www.gog.com/en/game/metro_exodus_gold_edition) und zeig deiner Karte, was Schmerzen sind. :biggrin:
;D

horn 12
2025-03-11, 19:02:20
Hat hier denn schon jemand die Powercolor 9070XT Red Devil oder Hellhound?

Meine 9070XT Hellhound kam heute um 13:55 an
Hatte mittags den PC Gereinigt und nun steht eben Kollege Geburtstags Party heute noch an ...

Der 2-te welche ich schon höre welche die Hellhound Retourniert ... :-(

HTB|Bladerunner
2025-03-11, 19:18:38
Niedrigere Spannung + VRAM-OC ist meist eine ungute Mischung bei AMD, ggf. wegen des Controllers. Insbesondere würd ich erstmal UV/OC ohne VRAM-OC ausloten, ist sonst nichts für schwache Nerven. VRAM-Instabilität kann auch gerne mal die hässlichsten Reboots/Freezes verursachen.
Und wird wohl auch selbst mit der XT bei realen Spielen ohne MSAA nur einen Furz bringen. Bei der Prime hab ich auch so schon ohne VRAM-OC ständig 95°C VRAM.

Ja, man sollte beides erst einmal getrennt ausloten und dann schauen ob es auch in Kombination läuft. Ich denke dadurch ergeben sich oftmals enttäuschende Ergebnisse beim Undervolting.

Die VRam-Temp liegt bei meiner Nitro im Bereich von 90°C. Verwende aber auch die 2te Magnet-Backplate nicht. Ich denke der Sommer wird es zeigen ob das alles noch stabil läuft.

Was passiert bei Frequenzcap -300 und Vram 2760?
bleiben dann die eff.Volt näher beieinander?
(könnte man so ein stärkeres UVen besser absichern)


btw.
Gerade in 4k steigt bei Vram-OCen die tatsächliche Shaderauslastung und drückt dadurch ein bisschen auf die eff.Volt. = normal
mit Vram@stock haben sicherlich einige Shader noch zuviel Leerlauf

Bei -300MHz cap und Vram 2760MHz bekommt die GPU 0,926V. Sogar nochmal 1mV weniger. :D
Auch hier läuft die Karte ins PL von 363W.

Daher habe ich nochmal eine Messung bei -400MHz Takt-Offset, Vram bei 2760MHz gemacht. Dabei kamen 0,908V raus. Ohne Vram-OC liegt man bei 0,899 (s. Tabelle). Die TBP steigt natürlich ebenfalls von 339W (ohne Vram-OC) auf 352W (mit VRam OC).

*edit*
Sorry, hatte mich verguckt. Es waren bei -400MHz auch 0,899V und nicht 0,908V.

Dant3
2025-03-11, 19:39:58
Ich habe noch mal das Spulenpfeifen meiner beiden Karten verglichen, dieses mal bei exakt den gleichen FPS und auch 300 Watt Auslastung. Obwohl ich erst den Eindruck hatte, dass die 9070 XT lauter wäre, sieht es nun doch nicht so aus bzw. hört sich nicht so an.
Habe mal das Standmikro direkt vor die Mesh - Front gestellt und aufnahmen erstellt.

https://voca.ro/13yTQGOW0YTg 7900@60fps
https://voca.ro/13KWvPHMoTTb 7900@120fps

https://voca.ro/1jFLzec7QdPA 9070@60fps
https://vocaroo.com/1g0ic2UCQkT3 9070@120fps

Ich würde sagen beide Pfeifen in der gleichen Lautstärke, nur der Ton ist bei der 7900 etwas höher. Mit etwas Abstand klingen natürlich beide Karten nicht so schlimm wie auf den Aufnahmen.
Wenn man noch leisen Ton vom Spiel hat gehen beide Karten auch bei niedrigen dreistelligen Frames in der Geräuschkulisse unter.

gedi
2025-03-11, 19:57:24
Warum benutzt hier keiner das 9070-kompatible MPT? Die Wattage erhöhen auf 400-450w und schauen was geht.

Hübie
2025-03-11, 20:05:09
Mittlerweile laufen 17 Loops 3D Mark Port Royal: Takt ist nun auf ~3200 (3177 - 3225) MHz abgesunken und die Spannung bleibt bei ~980mV (970-999). Ich denke mein Sample ist nicht voll Kacke. :freak:

https://1drv.ms/i/c/a3366ae7aeda0e90/ET9po5OpPKVOt9FE2FcbIU0BKtRsASBToT6zsEddzp4jbw?e=BeuuKD

Edit: Metro lädt noch ca. 4:40 h

Schnitzl
2025-03-11, 20:12:09
Ich habe noch mal das Spulenpfeifen meiner beiden Karten verglichen, dieses mal bei exakt den gleichen FPS und auch 300 Watt Auslastung. Obwohl ich erst den Eindruck hatte, dass die 9070 XT lauter wäre, sieht es nun doch nicht so aus bzw. hört sich nicht so an.
Habe mal das Standmikro direkt vor die Mesh - Front gestellt und aufnahmen erstellt.

https://voca.ro/13yTQGOW0YTg 7900@60fps
https://voca.ro/13KWvPHMoTTb 7900@120fps

https://voca.ro/1jFLzec7QdPA 9070@60fps
https://vocaroo.com/1g0ic2UCQkT3 9070@120fps

Ich würde sagen beide Pfeifen in der gleichen Lautstärke, nur der Ton ist bei der 7900 etwas höher. Mit etwas Abstand klingen natürlich beide Karten nicht so schlimm wie auf den Aufnahmen.
Wenn man noch leisen Ton vom Spiel hat gehen beide Karten auch bei niedrigen dreistelligen Frames in der Geräuschkulisse unter.
Arbeitskollege hatte auch ewig ein pfeifen mit einer 6800XT.
Als Vorbereitung für die 5080 Netzteil getauscht (mehr W) und das pfeifen mit der 6800XT war weg. :eek:

Muss nicht immer so sein - nur ein Hinweis, wenn beide pfeifen ;)

basix
2025-03-11, 20:24:59
Will auch >3 GHz! :D

Hübie
2025-03-11, 20:45:51
Arbeitskollege hatte auch ewig ein pfeifen mit einer 6800XT.
Als Vorbereitung für die 5080 Netzteil getauscht (mehr W) und das pfeifen mit der 6800XT war weg. :eek:

Muss nicht immer so sein - nur ein Hinweis, wenn beide pfeifen ;)

Ich bin auch vom Enermax 1000W auf Bequiet Dark Power 850W gewechselt und das Spulenrasseln war wirklich weg :eek:

basix
2025-03-11, 20:51:37
Hat jemand ein Superposition Bench Resultat mit einer UV 9070XT?

prinz_valium_2
2025-03-11, 21:08:29
falscher Topic

M4xw0lf
2025-03-11, 22:26:01
Arbeitskollege hatte auch ewig ein pfeifen mit einer 6800XT.
Als Vorbereitung für die 5080 Netzteil getauscht (mehr W) und das pfeifen mit der 6800XT war weg. :eek:

Muss nicht immer so sein - nur ein Hinweis, wenn beide pfeifen ;)

Hatte das damals ganz extrem mit der R9 Nano. Nach Netzteilwechsel praktisch kein Fiepen mehr vorhanden.

Hübie
2025-03-11, 22:37:53
Warum benutzt hier keiner das 9070-kompatible MPT? Die Wattage erhöhen auf 400-450w und schauen was geht.

Link pls... :D

Taigatrommel
2025-03-11, 23:01:30
Link pls... :D
https://www.igorslab.de/neue-version-des-morepowertools-mpt-und-finale-des-redbioseditors-rbe-zum-download/

Hübie
2025-03-11, 23:18:59
Da steht nur, dass das MCT mit RDNA4 klar kommt, nicht das MPT...

Dant3
2025-03-11, 23:26:08
Arbeitskollege hatte auch ewig ein pfeifen mit einer 6800XT.
Als Vorbereitung für die 5080 Netzteil getauscht (mehr W) und das pfeifen mit der 6800XT war weg. :eek:

Muss nicht immer so sein - nur ein Hinweis, wenn beide pfeifen ;)
Bin erst vor ein paar Monaten von einem älteren Enermax Platimax 750W ATX 2.4 auf ein Corsair RMX 1000W ATX 3.1 gewechselt, daran wird es wohl nicht liegen. Bei deinem Kollegen kann auch vom Netzteil das Pfeifen gekommen sein und entsprechend ist es dann weg bzw. deutlich besser geworden.

Es wird auch keine aktuelle GPU existieren, wo einfach gar nichts zu hören ist. Ab gewissen FPS werten + hoher Auslastung zirpen alle rum. Das behaupte ich jetzt mal einfach nach diversen RX 6600 / 6800 / 6800 XT / 6900 XT / 4070 / 7900 XT / 7900 XTX Karten, mit denen ich Kontakt hatte (nein, die waren nicht alle in meinem PC :P).
Entsprechend denke ich, dass ich auch ungefähr einschätzen kann, was bei diesem mistigen Problem noch als leise zu bezeichnen ist.

GerryB
2025-03-12, 06:38:56
Bei -300MHz cap und Vram 2760MHz bekommt die GPU 0,926V. Sogar nochmal 1mV weniger. :D
Auch hier läuft die Karte ins PL von 363W.

Danke!
Sinn der Frage war zusätzlich, ob jetzt der oben limitierte Boosttakt stabiler ist?

Eigentlich bräuchte man in nem worstcase Game an einer festen Stelle/Szene dann auch noch den eff.Takt.
Ob man ins PL läuft liegt doch am imGamesetting, ... mit FSR oder nonmaxed=Ultra-->High kommt man evtl. in freies Takten.

worstcase Game in dem Sinne das man bei hohem Takt>>3,15GHz crashed
aber evtl. mit <3,15GHz noch stabil ist

Hakim
2025-03-12, 12:59:13
Könnte eigentlich das Problem mit den Vram OC an den Temperaturen liegen, mir ist auch aufgefallen das bei vielen Tests fast alle um die 90 Grad schon Stock hatten, bis auf eine XFX. Vielleicht führt es dann bei zusätzlichen Vram OC zu noch höheren Temps die dann Fehler verursachen und dadurch die Leistung eher abnimmt?

Edit: die Mercury und die TUF scheinen in der Hinsicht besser

Edit2: warum sind eigentlich die Temps überhaupt so hoch? Hab gerade paar 7900XTX und NV Werte geschaut, egal ob GDDR6 oder 7, großer Unterschied.

x-force
2025-03-12, 14:28:12
Hab gerade paar 7900XTX und NV Werte geschaut, egal ob GDDR6 oder 7, großer Unterschied.

das stimmt so nicht.

5070ti gb gaming oc@320w 1550u/min core 59° mem 64°
(1,055v@3322-3300 mhz in cp2077 mit pt)

gb nutzt putty, vielleicht mal damit probieren und nichts unter 3 slot kaufen.

Hakim
2025-03-12, 14:39:12
Ich verstehe nicht was du meinst, 64 ist doch ordentlich. Vielleicht habe ich mich schlecht ausgedrückt, ich meinte das bei den 79XTX Karten und Ada und BW Karten die Vram Temps weit Weg von nahe 90 Grad sind wie bei den 9070ern.

dildo4u
2025-03-12, 14:46:33
Ist doch offensichtlich die XFX zeigt es auf, die anderen Karten laufen zu langsam da sich die Lüfterkurve nach der GPU Temp richtet.

aufkrawall
2025-03-12, 14:48:46
Da drosselt bei <100°C nichts. Ggf. auch bei 105-110°C noch nicht.

dargo
2025-03-12, 17:48:45
Gibt es eigentlich eine Übersicht welche XTs ne Vapor Chamber verwenden?

GerryB
2025-03-12, 18:30:46
Mercury+Aorus

Pseudo23
2025-03-12, 18:36:10
Hat jemand ein Superposition Bench Resultat mit einer UV 9070XT?

1080p Extreme auf der Sapphire 9070 XT Nitro+ mit 7800X3D

Nr. MHz mV RAM Timings PT Power (W) GPU MHz Score %-Score
1 0 Stock 2505 normal Stock 330 30xx 14928 100,00%
2 0 Stock 2716 normal Stock 330 30xx 15012 100,56%
3 0 -20 2716 normal -15% 280 28xx 14485 97,03%
4 0 -20 2716 normal -25% 247 27xx 13958 93,50%
5 0 -20 2716 normal -30% 230 26xx 13683 91,66%
6 50 -20 2716 normal 10% 363 31xx 15506 103,87%
7 100 -35 2716 normal 10% 363 31xx 15586 104,41%
8 100 -50 2716 normal 10% 363 31xx 15661 104,91%
9 150 -35 2716 normal 10% 363 31xx 15580 104,37%
10 150 -100 2716 normal 10% 363 32xx 15951 106,85%
11 200 -100 2716 normal 10% 363 32xx 15954 106,87%
12 200 -130 2716 normal 10% 363 33xx 16133 108,07%

85% der Leistungsaufnahme bringt 97% der Leistung. :)

Aktuell spiele ich auf dem Setting Nr. 3.
Ob die Settings ab Nr. 8 ansatzweise stabil sind, wage ich zu bezweifeln.



Nr. 1
https://ibb.co/cKMLJr39

Nr. 3
https://ibb.co/ksRQH2v4

Nr. 12
https://ibb.co/svDt1WC1

Dant3
2025-03-12, 19:05:52
Interessanter Test.
Nur 3% weniger Leistung für 50 Watt klingt nach einem guten Deal.
In der Richtung werde ich später auch noch mal herum testen.

dargo
2025-03-12, 19:08:53
Mercury+Aorus
Hmm... ok, also nur die ganz dicken Klopper. Noch eine Frage... unterscheiden sich die Pulse und Pure von Sapphire überhaupt irgendwo außer bei der Farbe? Die weiße Farbe bei der Pure kann doch nicht alleine 150$ Aufpreis kosten. :freak:

Hakim
2025-03-12, 19:14:12
Mercury+Aorus

Die Gaming OC von GB wirbt auch damit.

Bismarx
2025-03-12, 19:34:03
Ganz kurz zur Powercolor Reaper XT:

- 2-Slot-Design - Karte ist leichter als meine alte Vega56 Pulse;
- Temperaturen bei knapp 60 °C auf Stock - Lüfter ist dann deutlich wahrnehmbar, aber leiser als die alte Pulse;
- Bei hoher Last brummen die Spulen doch vernehmbar. Aber beim Zocken eher nicht auffallend;
- Übertakten habe ich nicht groß probiert. Aber -100 mV UV/-500 Mhz GPU-Offset sorgen in Superposition für 4% mehr Frames - 2 Stunden CP 2077 (UWQHD - Ultra - RT on) waren so stabil - Leistungsaufnahme etwa bei 270 W bei ~2850 Mhz mit UV. -130 mV crashen im Spiel nach recht kurzer Zeit.

Die Karte verfügt über 0 Blingbling, scheint sich aber - nach dem was man hier so liest - von den Eigenschaften nicht groß von anderen Karten zu unterscheiden.

Was noch fehlt betrifft eher die Treiber: noch mehr -Mhz Offset. So könnte man ggf. auch mit der Spannnung noch weiter runter.

Edit: werde die -100 mV mal etwas weiter beobachten... nur in CP77 getestet bisher.

Pseudo23
2025-03-12, 19:40:51
Interessanter Test.
Nur 3% weniger Leistung für 50 Watt klingt nach einem guten Deal.
In der Richtung werde ich später auch noch mal herum testen.

Ist sicherlich nicht überall so und ob sich das so in Games überträgt muss man auch erstmal prüfen. Hab aber auch das Gefühl, das meine Karte nach oben schlechter geht (,als die der Tester).

GerryB
2025-03-12, 19:43:03
Die Gaming OC von GB wirbt auch damit.
interessant
wenns dadurch mit den kleinen Lü. auch noch reicht

Dorn
2025-03-12, 19:50:11
Hmm... ok, also nur die ganz dicken Klopper. Noch eine Frage... unterscheiden sich die Pulse und Pure von Sapphire überhaupt irgendwo außer bei der Farbe? Die weiße Farbe bei der Pure kann doch nicht alleine 150$ Aufpreis kosten. :freak:
Dazu kommt noch ein höheres Powertarget.

Leistungsaufnahme
304 W (typischer Energieverbrauch der Karte) Pulse
317 W (typischer Energieverbrauch der Karte) Pure

Wie beim Auto kein Standard Lack, gibt Aufpreis plus "Turbolader"....:biggrin:

Aber es ist und bleibt Absurd was Sapphire hier macht:
https://www.sapphiretech.com/de-de/consumer/pulse-radeon-rx-9070-xt-16g-gddr6
https://www.sapphiretech.com/de-de/consumer/pure-radeon-rx-9070-xt-16g-gddr6

dargo
2025-03-12, 20:01:08
Dazu kommt noch ein höheres Powertarget.

Leistungsaufnahme
304 W (typischer Energieverbrauch der Karte) Pulse
317 W (typischer Energieverbrauch der Karte) Pure

Ja gut, das ist nur ne AIB-Spielerei. Schon krass, dass Sapphire nur für die weiße Farbe und bissel OC gleich 150$ mehr verlangt. :freak:

Hakim
2025-03-12, 20:16:45
Vielleicht hat man noch an Komponenten auf der Platine etwas gespart, wie Spannungswandler etc.

x-force
2025-03-12, 20:44:14
interessant
wenns dadurch mit den kleinen Lü. auch noch reicht

vapochamber sollte im bereich von 300w ein nobrainer sein.
der kühler selbst wiegt da im wahrsten sinne des wortes aber noch mehr.

vom prinzip her kann man die karten grob nach gewicht = leistungsfähigkeit des kühlers sortieren.

aufkrawall
2025-03-12, 20:49:29
Interessant: Auch bei einem Workload mit >90% GPU-Last, der nicht ins PT läuft, erhöht negativer Spannungs-Offset den Takt etwas.
Nicht verwunderlich, dass Karten, die beim maximalen Takt schon am Limit sind, da schnell crashen.

Linmoum
2025-03-12, 20:50:08
vom prinzip her kann man die karten grob nach gewicht = leistungsfähigkeit des kühlers sortieren.Nicht wirklich. Die Nitro+ beispielsweise wiegt über 400g mehr als die Taichi, kühlt aber schlechter (und ist dabei sogar auch noch lauter). Die Unterschiede wären an sich nur geringfügig, bei >400g Differenz ist das aber schon wieder eklatant.

fizzo
2025-03-12, 20:59:13
1080p Extreme auf der Sapphire 9070 XT Nitro+ mit 7800X3D

Nr. MHz mV RAM Timings PT Power (W) GPU MHz Score %-Score
1 0 Stock 2505 normal Stock 330 30xx 14928 100,00%
2 0 Stock 2716 normal Stock 330 30xx 15012 100,56%
3 0 -20 2716 normal -15% 280 28xx 14485 97,03%
4 0 -20 2716 normal -25% 247 27xx 13958 93,50%
5 0 -20 2716 normal -30% 230 26xx 13683 91,66%
6 50 -20 2716 normal 10% 363 31xx 15506 103,87%
7 100 -35 2716 normal 10% 363 31xx 15586 104,41%
8 100 -50 2716 normal 10% 363 31xx 15661 104,91%
9 150 -35 2716 normal 10% 363 31xx 15580 104,37%
10 150 -100 2716 normal 10% 363 32xx 15951 106,85%
11 200 -100 2716 normal 10% 363 32xx 15954 106,87%
12 200 -130 2716 normal 10% 363 33xx 16133 108,07%

85% der Leistungsaufnahme bringt 97% der Leistung. :)

Aktuell spiele ich auf dem Setting Nr. 3.
Ob die Settings ab Nr. 8 ansatzweise stabil sind, wage ich zu bezweifeln.



Sehr interessant. Hier die Werte meiner Sapphire Pure 9070(OC) mit 13600KF

Nr. MHz mV RAM Timings PT Power (W) GPU MHz Score %-Score
1 0 Stock 2505 normal Stock 245 27xx 12414 100,00%
2 0 Stock 2636 normal Stock 245 27xx 12423 100,07%
3 0 -20 2636 normal -20% 196 25xx 11611 93,53%
4 0 -20 2636 normal -25% 184 24xx 11317 91,16%
5 0 -100 2636 normal Stock 245 29xx 13148 105,91%
6 0 -100 2636 normal -10% 220 28xx 12732 102,56%
7 0 -100 2636 normal -15% 208 27xx 12533 100,96%
8 0 -100 2636 normal -20% 196 27xx 12304 99,11%
9 0 -100 2636 normal -25% 184 26xx 12026 96,87%
10 0 -100 2636 normal -30% 171 25xx 11620 93,60%
11 0 -120 2636 normal 10% 269 30xx 13626 109,76%


Test gerade Setting 9, das soweit stabil läuft. 75% der Leistungsaufnahme bringt 96,9% der Standardleistung. Die Karte skaliert hervorragend und kann sehr sparsam betrieben werden. Genau das, was ich wollte :cool:

x-force
2025-03-12, 21:01:03
Interessant: Auch bei einem Workload mit >90% GPU-Last, der nicht ins PT läuft, erhöht negativer Spannungs-Offset den Takt etwas.
Nicht verwunderlich, dass Karten, die beim maximalen Takt schon am Limit sind, da schnell crashen.

ich vermute kurze spikes, die nicht abgebildet werden.

nv zeigt teilweise auch schon 15% unterm limit "power" anstatt "voltage"

user77
2025-03-12, 21:01:34
Darum ne 9070 Nano.

x-force
2025-03-12, 21:18:47
Nicht wirklich. Die Nitro+ beispielsweise wiegt über 400g mehr als die Taichi

hast du dir mal bilder angesehen?
ich denk mir kein wunder, wenn man kaltgewalzten stahl anstatt plastik verwendet und zwei backplates draufklatscht. :freak:
außerdem haben sie den luftweg durch die karte verbaut. bei allen anderen modellen ist er meines wissens nach mit wesentlich mehr querschnitt vorhanden.

kühlt aber schlechter (und ist dabei sogar auch noch lauter).

nach allem nur logisch

Darum ne 9070 Nano.

wie würde ein halber kühlkörper dabei helfen?

aufkrawall
2025-03-12, 21:50:18
ich vermute kurze spikes, die nicht abgebildet werden.

Nein, denn niedrigeres PT-Limit reduziert den Takt bei dem Workload nicht.

x-force
2025-03-12, 21:55:07
Nein, denn niedrigeres PT-Limit reduziert den Takt bei dem Workload nicht.

aber bestimmt die leistung, beobachtet man ja häufig genug.

ich bin mir ziemlich sicher, dass die taktschwankungen lediglich nicht abgebildet wird... oder wie erklärst du das phänomen?

aufkrawall
2025-03-12, 22:32:29
aber bestimmt die leistung, beobachtet man ja häufig genug.

Nö.


ich bin mir ziemlich sicher, dass die taktschwankungen lediglich nicht abgebildet wird... oder wie erklärst du das phänomen?
Telemetrie-Eigenleben ala PBO/CO.

Der_Korken
2025-03-12, 22:39:16
Ja gut, das ist nur ne AIB-Spielerei. Schon krass, dass Sapphire nur für die weiße Farbe und bissel OC gleich 150$ mehr verlangt. :freak:

DIe Frage ist hierbei immer, was eigentlich die UVP der Pulse wäre ohne Maßgaben und Subventionen von AMD. Eventuell wäre die UVP dann 700$ bei der Pulse und die Differenz nur noch 50$. Und ja, weiß ist aus irgendeinem Grund immer teurer. Die weiße Hellhound habe ich btw. bisher noch nicht in freier Wildbahn gesehen.

Hübie
2025-03-12, 23:55:04
Meine Karte hat über Nacht 360+ Loops 3D Quark Port Royal durchgeführt. 990 mV und 3200 MHz. Ich denke das ist stabil. Metro EE und Superposition teste ich morgen oder Freitag mal und berichte dann. Entweder golden Sample oder Port Royal ist ungeeignet...

GerryB
2025-03-13, 00:16:10
da wird SN-Stresstest eher abbrechen
Games soundso

Der_Korken
2025-03-13, 00:29:42
Ich denke, dass es wichtiger ist, was man testet und nicht so sehr wieviel. Jeder Workload ist anders und einige treffen den wunden Punkt des Chips sehr viel besser als andere. Da kann der unkritische Bench stundenlang laufen und der kritische schmiert nach 30 Sekunden ab. Ich hatte ja schon mal die These geäußert, dass bei RDNA4 möglicherweise die Workloads mit hohen Taktraten kritisch sind, weil bei hohen Taktraten in der Regel der UV-Headroom kleiner ist. Ein wenig wie bei CPUs: Wenn ich Prime auf allen Kerne starte und der Takt durch Powerlimit oder Hitze auf 3,5Ghz einbricht, dann läuft vielleicht das krasseste UV rockstable, aber sobald ich es nur auf einem Kern starte und der dann mit 5,5Ghz boostet, fliegt mir das gleiche UV sofort um die Ohren.

Dant3
2025-03-13, 00:43:38
Bezueglich Kühler und deren Performance ist TP doch sehr aufschlussreich und die schweren Schlachtschiffe scheinen sich nicht so sehr absetzen zu können, wie man es erwarten würde.

https://tpucdn.com/review/xfx-radeon-rx-9070-xt-mercury-oc-magnetic-air/images/cooler-performance-comparison-gpu.png
https://tpucdn.com/review/xfx-radeon-rx-9070-xt-mercury-oc-magnetic-air/images/cooler-performance-comparison-mem.png

horn 12
2025-03-13, 00:46:09
@dargo

Extra für Dich @Dargo
und eine Seite Rückwärts nochmals interessanter für Dich :-)

https://www.forum-3dcenter.org/vbulletin/showthread.php?t=620981&page=3

aufkrawall
2025-03-13, 04:23:37
Kompletter Freeze in Fortnite Performance-Mode mit ReLive-Capture bei nur -80mV. Karte kam danach nicht mehr hoch und System musste vom Strom getrennt werden.
-> UV offenbar weiterhin Müll vs. Curve-UV bei GeForce.

dargo
2025-03-13, 07:36:05
Bezueglich Kühler und deren Performance ist TP doch sehr aufschlussreich und die schweren Schlachtschiffe scheinen sich nicht so sehr absetzen zu können, wie man es erwarten würde.

https://tpucdn.com/review/xfx-radeon-rx-9070-xt-mercury-oc-magnetic-air/images/cooler-performance-comparison-gpu.png
https://tpucdn.com/review/xfx-radeon-rx-9070-xt-mercury-oc-magnetic-air/images/cooler-performance-comparison-mem.png
Ich kann mit diesen normalized Noise Angaben nichts anfangen da mir das zu laut ist. Dass die Lüfterdrehzahlen hoch sein müssen sieht man schon an den tiefen Temperaturen, insbesondere auch beim Vram. Und warum man bei der GPU Edge und nicht den Hotspot nimmt muss auch niemand verstehen. Edge ist sowas von wayne.

E39Driver
2025-03-13, 08:21:39
Ganz kurz zur Powercolor Reaper XT:

- 2-Slot-Design - Karte ist leichter als meine alte Vega56 Pulse;
- Temperaturen bei knapp 60 °C auf Stock - Lüfter ist dann deutlich wahrnehmbar, aber leiser als die alte Pulse;
- Bei hoher Last brummen die Spulen doch vernehmbar. Aber beim Zocken eher nicht auffallend;
- Übertakten habe ich nicht groß probiert. Aber -100 mV UV/-500 Mhz GPU-Offset sorgen in Superposition für 4% mehr Frames - 2 Stunden CP 2077 (UWQHD - Ultra - RT on) waren so stabil - Leistungsaufnahme etwa bei 270 W bei ~2850 Mhz mit UV. -130 mV crashen im Spiel nach recht kurzer Zeit.

Die Karte verfügt über 0 Blingbling, scheint sich aber - nach dem was man hier so liest - von den Eigenschaften nicht groß von anderen Karten zu unterscheiden.

Was noch fehlt betrifft eher die Treiber: noch mehr -Mhz Offset. So könnte man ggf. auch mit der Spannnung noch weiter runter.

Edit: werde die -100 mV mal etwas weiter beobachten... nur in CP77 getestet bisher.
Danke für den Test. Die verglichene Vega-56 Pulse war dieses Referenzdesign mit lautem Radiallüfter gewesen, oder? Da sollte die Reaper ja auf jeden Fall deutlich leiser gegen sein. Wenn es hingegen nur etwas leiser ist, klingt das eher abschreckend.

GerryB
2025-03-13, 08:38:26
google mal RX 56 Pulse, ... das war schon ne leise 150W-Graka
Kühler länger als PCB und mit Radiallüftern(x)

https://geizhals.de/sapphire-pulse-radeon-rx-vega-56-11276-02-40g-a1750589.html

(x) kein Hitzestau unter der Graka, = ideal

E39Driver
2025-03-13, 08:45:19
Stimmt. Die Pulse hatte nochmal ein anderes Design. Ich hatte jetzt dieses Design der Referenz bei Saphire vor Augen. Das war die mit dem sehr lauten Radiallüfter https://www.sapphiretech.com/de-de/consumer/21276-00-radeon-rx-vega56-8g-hbm2

Badesalz
2025-03-13, 08:45:30
Bezueglich Kühler und deren Performance ist TP doch sehr aufschlussreich und die schweren Schlachtschiffe scheinen sich nicht so sehr absetzen zu können, wie man es erwarten würde.Die Pulse ist doch kein Schlachtschiff (?)

Bismarx
2025-03-13, 09:21:00
... dann läuft vielleicht das krasseste UV rockstable, aber sobald ich es nur auf einem Kern starte und der dann mit 5,5Ghz boostet, fliegt mir das gleiche UV sofort um die Ohren.

...deshalb das negative MHz-Offset (500). Wenn die Karte Ihr PL ausnutzt, um dann mit UV höher zu takten, dann schmiert die Geschichte eben ab. Leider scheint das 500er Offset den Takt auch nur auf knapp 2850 MHz zu begrenzen. Weniger wäre in diesem Fall mehr.

Gibt es irgendwelche Tools, die das (weniger Takt/Spannung) zuverlässig und anwenderfreundlich für einen bewerkstelligen können?

GerryB
2025-03-13, 09:26:41
Wenn Du weniger brauchst, kannste gleich ne kleinere Graka kaufen.

dargo
2025-03-13, 09:42:23
Wenn Du weniger brauchst, kannste gleich ne kleinere Graka kaufen.
Ist das das neumodische schönsaufen vom (noch?) fehlenden MPT-Support? :rolleyes:

Bismarx
2025-03-13, 09:44:47
Wenn Du weniger brauchst, kannste gleich ne kleinere Graka kaufen.

Ich nehme das mal als "nein, ein solches Tool gibt es derzeit nicht".

Tigershark
2025-03-13, 09:53:53
Die Pulse ist doch kein Schlachtschiff (?)

Wie man's nimmt :freak:

Meine kam gestern. In einer Mischung aus Hoffnung, Haben-Wollen-Effekt und Verzweiflung hatte ich sie mir als vermeintlich kleinsten Vertreter der 9070-Reihe bestellt, obwohl es noch keinen WaKü Block dafür gibt. Naja... aufgrund meiner etwas...ähm...speziellen Einbausituation passt sie aber leider nicht rein. Knapp zwar, aber geht nicht. Also geht sie wohl oder übel zurück und ich schlage dann erst zu, wenn Blöcke verfügbar sind (bislang ja nur für die ASRock Taichi, aber wieso für dicken Kühler und blingbling zahlen, wenn er eh weg kommt... außerdem will ich kein 12V 2x6)...

https://s1.directupload.eu/images/250313/byh9earp.jpg (https://www.directupload.eu)
https://s1.directupload.eu/images/250313/gg9afoc2.jpg (https://www.directupload.eu)
https://s1.directupload.eu/images/250313/9d4tyh87.jpg (https://www.directupload.eu)

*edit*

Für alle Interessierten - dieser Thread im Luxx wird wohl zukünftig mit die beste Quelle für Detailinfos zu den einzelnen Customs sowie vor allen Dingen verfügbaren WaKü Blöcken sein:
https://www.hardwareluxx.de/community/threads/amd-rdna4-rx9000-wasserk%C3%BChler-9070xt-vrm-list.1364913/

GerryB
2025-03-13, 09:54:51
Ist das das neumodische schönsaufen vom (noch?) fehlenden MPT-Support?
oder mal Nachhaken statt Blubbern

Was hat denn die nonXT als max.Frequenzlimit drin stehen?
sieht man in HWinfo und kann man auch auf -500 umstellen

Armaq
2025-03-13, 09:57:26
Wie man's nimmt :freak:

Meine kam gestern. In einer Mischung aus Hoffnung, Haben-Wollen-Effekt und Verzweiflung hatte ich sie mir als vermeintlich kleinsten Vertreter der 9070-Reihe bestellt, obwohl es noch keinen WaKü Block dafür gibt. Naja... aufgrund meiner etwas...ähm...speziellen Einbausituation passt sie aber leider nicht rein. Knapp zwar, aber geht nicht. Also geht sie wohl oder übel zurück und ich schlage dann erst zu, wenn Blöcke verfügbar sind (bislang ja nur für die ASRock Taichi, aber wieso für dicken Kühler und blingbling zahlen, wenn er eh weg kommt... außerdem will ich kein 12V 2x6)...

https://s1.directupload.eu/images/250313/byh9earp.jpg (https://www.directupload.eu)
https://s1.directupload.eu/images/250313/gg9afoc2.jpg (https://www.directupload.eu)
https://s1.directupload.eu/images/250313/9d4tyh87.jpg (https://www.directupload.eu)
Die Karten sind alle richtige Monster. Freund hat sich ne Asus TUF 9070XT geholt und die ist genauso groß wie die Palit 5090. Irgendwie hat man sich gedacht, lass einfach mal alle Karten so ausstatten, obwohl die nen kleines PT hat.

dargo
2025-03-13, 10:06:32
Was hat denn die nonXT als max.Frequenzlimit drin stehen?
sieht man in HWinfo und kann man auch auf -500 umstellen
Und die fehlenden CUs fantasierst du dir dann bei? Diese -max. 500Mhz sind wieder nichts weiter als unnötige Treiberlimitierung. Und richtig bescheuert wirds dann bei den ganzen OC-Modellen wo der max. Takt noch höher liegt.

GerryB
2025-03-13, 10:08:33
Und die fehlenden CUs fantasierst du dir dann bei?
Wenn Du den Takt um 600-700 MHz drücken willst/musst, dann brauchst Du auch keine CU´s mehr.
Ist schon klar, was Du hoffst, das die Größere ein mue sparsamer läuft@weniger Volt, aber geschenkt.
2500MHz in der Drehe von minVolt=0,75V werden wohl auch die nonXT schaffen.

Preis/Leistung nicht vergessen!
in der realen Welt ist der Unterschied zw. nonXT und XT-Customs mittlerweile bei >100€

raffa
2025-03-13, 10:08:54
ASRock RX 9070 Steel Legend Overclocking & Undervolting Cyberpunk

Nr. PT Power (W) FPS %-Score FPS/W
1 +10% 270 60 111,11% 0,22
2 +0% 245 54 100% 0,22
3 -30% 170 50 92,59% 0,29





4SF9OK2PwYo

dargo
2025-03-13, 10:11:45
Wenn Du den Takt um 600-700 MHz drücken willst/musst, dann brauchst Du auch keine CU´s mehr.

Jeder Anfänger weiß, dass mehr CUs bei weniger Takt immer effizienter sind.

raffa
2025-03-13, 10:15:27
Richtig. Deswegen her mit der "Nano"

N48XTX, Kompaktes 2 Lüfter Design, 200W TBP

GerryB
2025-03-13, 10:15:48
Hör doch auf bullshit zu schreiben. Jeder Anfänger weiß, dass mehr CUs ...
mehr Geld in der Anschaffung kosten

beim realen 24/7 gamen@Fps-Limit siehts momentan gar net sooo schlecht für die Kleine aus
und dann mal noch den Preis verrechnet, dann ... siehe Anhang

edit:
inzwischen etwas preisgünstiger, aber Relation fast genauso

Achill
2025-03-13, 10:40:52
Ganz kurz zur Powercolor Reaper XT:
[..]

- Übertakten habe ich nicht groß probiert. Aber -100 mV UV/-500 Mhz GPU-Offset sorgen in Superposition für 4% mehr Frames - 2 Stunden CP 2077 (UWQHD - Ultra - RT on) waren so stabil - Leistungsaufnahme etwa bei 270 W bei ~2850 Mhz mit UV. -130 mV crashen im Spiel nach recht kurzer Zeit.

[..]


Ich kann diese Beobachtung bestätigen und kenne es auch so von meiner alten 6900XT Ref ..


.. bei dieser hatte ich damals mit dem MPT den max. GPU Takt auf 2.6Ghz (im Bios waren 3GHz hinterlegt) limitiert und konnte damit ein stärkeres UV einstellen (meine 24/7 Settings: GPU@2450MHz, MEM@2150Mhz, Timing Control Set 2, UV@1.065V, SCO@1.085V, PPT@255W) sodass i.d.R. ~2350-2400 MHz ohne Anheben des PT möglich waren, ähnlich den Takt den man bei der PCGH oft für die 6950XT sieht / sehen konnte.


Die neue Gigabyte Radeon RX 9070 XT 16GB Gaming OC verhält sich ähnlich, bei reinen Raster-Spielen / -Benchs geht teilweise ein UV von -115mV oder mehr, für RT oft nur etwas um die -85mV und starkes RT oder PT -65mV ... jedoch nur wenn ich den max. Boost unangetastet lasse.

Mein aktuelles Vorgehen (noch nicht viel Zeit gehabt) für UV ist folgendes:
- Ein Spiel / Bench mit den GPU-Defaults starten
- Im laufenden Spiel den aktuellen Takt vermerken
- Via Hot-Key das Treiber-Overlay im laufenden Spiel anzeigen lassen, dann:
1. Max. Freq. Offset reduzieren und dann notieren bis dieser den aktuellen Takt stärker reduziert als das Powerlimit mit den Defaults.
2. Jetzt mit UV starten, hier kommt es dann ggf. zu Crashs, dies setzt auch das Globale Profil zurück, darum den/die Offsets merken/notieren
=> Mit einen bekannten/vermuteten Voltage Offset starten, z.B. -75mV
=> Je nach Risiko/Zeit/.. in Schritten dies erhöhen/verringern
=> Bei Crash einen Wert zwischen den letzten "stabilen" und gecrashten Wert testen ... oder beim letzten stabilen Wert stoppen
3. Hat man den Freq. und UV Offset bestimmt, dann sollte man jetzt bei beiden ein Puffer hinzu fügen, wie z.B. -25MHz oder +10mV ...
- RAM OC sollte man erst brauchen, wenn im HWInfo unter "GPU Memory Controller Utilization" einen hohe zweistellige Prozentzahl sieht (wahrscheinlich so ab 70%)

=> Hat man jetzt ein (hoffentlich) passendes Profil, und will dies nicht verlieren oder verschiedene Profile per Hand vor dem Start eines Spiels laden, so sollte man dies:
1. Exportieren, z.B. 9070xt_star_wars_outlaws
2. Im Treiber für das Spiel ein eigenes "Performance Tuning Profile" erstellen, dies wird anders als das Globale Perf. Tuning Profil nicht zurück gesetzt bei einen Crash durch OC/UV.

Für OC mit UV ist das Vorgehen etwas anders:
- Man startet zuerst mit dem UV im Spiel und versucht einen möglichst hohen Takt bei gewünschten/eingestellten PT zu erreichen, die UV Werte notieren bis der Crash kommt.
- Mit den letzten stabilen UV Wert jetzt den Takt-Offset bestimmen
- Puffer hinzufügen, Globales Perf. Profil exportieren, entsprechendes Game Perf. Profil erstellen

=> Generell sollte klar sein, je näher man an den Limits bleibt aka je kleiner der Puffer, desto eher kann das Spiel crashen wenn sich das Last-Szenario an einer anderen Stelle ändert. Genauso verhält es sich wenn man die Graphik-Optionen später ändert und/oder RT/PT erst später aktiviert.

Ich hab aber erst ein paar Stunden Erfahrungen gesammelt, muss jeder selbst mal testen ob das beschriebene funktioniert ...

Bismarx
2025-03-13, 11:49:42
edit:
inzwischen etwas preisgünstiger, aber Relation fast genauso

...meine Reaper XT habe ich für 689,- € erstanden. Die non-XT wäre 60 € günstiger gewesen.

Es ist aber letztlich auch wirklich nicht relevant in diesem Thread. Soll doch jeder hier seine Hardware so einstellen wie er Lust hat. Dafür tauscht man sich aus, und bekommt so den einen oder anderen Hinweis.

GerryB
2025-03-13, 13:16:29
...meine Reaper XT habe ich für 689,- € erstanden. Die non-XT wäre 60 € günstiger gewesen.
Es ist aber letztlich auch wirklich nicht relevant in diesem Thread.

Auf wieviele User hier trifft Das zu ?
Die arbeitenden NichtBüro Leutchen haben nicht die Gelegenheit so oft F5 zu drücken.

Natürlich ist Deine Graka ideal bei P/L.
und der Kühler reicht für UVer

HTB|Bladerunner
2025-03-13, 13:36:01
Danke!
Sinn der Frage war zusätzlich, ob jetzt der oben limitierte Boosttakt stabiler ist?

Eigentlich bräuchte man in nem worstcase Game an einer festen Stelle/Szene dann auch noch den eff.Takt.
Ob man ins PL läuft liegt doch am imGamesetting, ... mit FSR oder nonmaxed=Ultra-->High kommt man evtl. in freies Takten.

worstcase Game in dem Sinne das man bei hohem Takt>>3,15GHz crashed
aber evtl. mit <3,15GHz noch stabil ist

Ah OK, also die Sache mit den hohen Taktraten >3GHz habe ich im Grunde schon getestet. Letztendlich kam ich zum Schluss, dass ein hoher Takt nicht die Ursache für einen Absturz sein muss. Ich kann meinen Chip nicht besser undervolten wenn ich eine Taktbegrenzung von ~2950MHz setze (-500MHz). Demzufolge wird, zumindest in meinem Fall, die Instabilität bereits unterhalb von 2950MHz auftreten.


Zum Thema VMem-Übertaktung habe ich nochmal den Speed Way Belastungstest durchlaufen lassen. Offensichtlich wird hier der Speicher besonders gut ausgelastet. Zumindest kam ich mit meiner Spiele-Auswahl nie in Temperatur-Regionen von max. 96°C.
Man sieht auch schön, wie die VMem-Performance bereits ab dem 5. Durchlauf abnimmt und zum Ende hin stark einbricht.

Der 2. Screenshot zeigt den selben Durchlauf, mit gleichen Settings, jedoch mit manueller Lüfterkurve (100%).

Ich ziehe daraus den Schluss, dass es Sinn machen könnte, die Speicher-Kühlung zu optimieren. :D

*edit*
Uff, auch das Delta bei der GPU-Kerntemperatur finde ich beachtlich (0,899V VS 0,835V). Wie ist das denn zu erkären? Greifen nun die Lüfter bei 100% ein paar Millivolt ab, oder ist die niedrigere GPU-Temp der Grund dafür?

Lurtz
2025-03-13, 14:44:15
4070 vs 9070 XT ist nicht so einfach (für mich ;D). Kann von gefühlt kaum Mehrperformance bis hin zu ganz anderes Erlebnis reichen. Witcher 3 mit vollem RT sicher doppelt so schnell mit FSR4. Total War: Warhammer 3 locker doppelt so schnell in 1440p.

FSR4 ist Hit and Miss, siehe: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13725769#post13725769

Grundsätzlich aber extrem vielversprechend, Support muss nur besser werden.

Fiept mit meinem Focus GX 850W leider ordentlich. Bis ~250 Watt geht's noch, ab ~280 Watt wird's dann eklig. Mit -15% Powertarget wahrscheinlich akzeptabel, aber nichts was Freudenstürme ausbrechen lässt. GPUs unter 200 Watt sind so viel sexier als diese Boliden...
Lüfter sind aber unhörbar bis leise/angenehm.

Ein Fehler ist das Upgrade sicher nicht, für ~300€ Aufpreis aber wohl auch nichts, was man unbedingt braucht, wenn man mit weiterhin tendenziell überlegenem DLSS den Performanceabstand teils noch etwas verkürzen kann. Titel, wo der 4070 der VRAM oder komplett die Puste ausgeht (Warhammer 3), sind natürlich massiv schneller.

Wäre der FSR4-Support stabiler, würde ich es wahrscheinlich machen, so eher nicht... :uponder: Ich weiß genau, dass ich mich jedes Mal ärgern würde.

Edit:
Selbst CP 2077 mit Pathtracing läuft deutlich besser. Das überrascht mich schon etwas.

Edit2:
Nach Alt+Tab ist die Performance plötzlich halbiert :ugly:

aufkrawall
2025-03-13, 15:40:13
Ah OK, also die Sache mit den hohen Taktraten >3GHz habe ich im Grunde schon getestet. Letztendlich kam ich zum Schluss, dass ein hoher Takt nicht die Ursache für einen Absturz sein muss. Ich kann meinen Chip nicht besser undervolten wenn ich eine Taktbegrenzung von ~2950MHz setze (-500MHz). Demzufolge wird, zumindest in meinem Fall, die Instabilität bereits unterhalb von 2950MHz auftreten.

Ja, ist offenbar ständig bzw. immer noch so mit RDNA4. Kann auf irgendeinem Punkt auf der Kurve crashen. Und weil bei niedrigeren Punkten auf der Kurve nie hohe Auslastung gegeben ist, kann das ewig dauern, bis die Instabilität getriggert wird.
Wenn Leute ihre GPU mit irgendetwas mit hoher GPU-Auslastung konstant stressen, ist das leider völlig ohne Aussagekraft bez. der Stabilität.

Di_Stefan0
2025-03-13, 16:55:04
Ich habe meine 9070 XT Pulse seit einer Woche verbaut und bin bei folgenden Settings angelangt:
-70 mV | -10% Powerlimit (~270 Watt) | Lüfterkurve bei 42% gecappt (~1700 RPM)

Damit ist die Karte leise, kühl (Edge/Hotspot/VRAM: 60°C/80°C/90°C) und ausreichend schnell um das fehlende DLSS4 meiner vorigen RTX 3080 zu kompensieren. Beim Stabilitätstest des UV sind mir neben dem schon genannten CP77 noch BF2042 (in 4k), BFV (in 5k) und Assetto Corsa EVO (in 2k) aufgefallen, um verschiedene Lastzustände zu simulieren.

Während Steel Nomad bereits bei -120 mV crashte, liefen die beiden BFs und ACE erst bei -70 (bislang) stabil.

Hat sich schon mal jemand getraut bei einem Onlinespiel mit Anti-Cheat via Optiscaler etwas zu injecten? Würde ungern einen Ban riskieren wollen und bei meinen aktuellen Spielen ist es auch nicht wirklich notwendig.

VG Di_Stefan0

aufkrawall
2025-03-13, 17:02:09
EAC wird nicht zugelassene/signierte Dateien einfach blockieren. Was auch gut so ist, um User vor einem Ban zu schützen. Würde von OptiScaler in Spielen mit Anti-Cheat dringendst abraten.

Hakim
2025-03-13, 17:26:51
@Di_Stefan0 wie ist die Performance mit den Einstellungen im Vergleich zu Stock?

Di_Stefan0
2025-03-13, 17:39:18
@Di_Stefan0 wie ist die Performance mit den Einstellungen im Vergleich zu Stock?

Damit liege ich ca. 2-3% unter den Stock-Settings, also nur mess- aber nicht fühlbar. Das Spulenfiepen ist damit aber fast komplett weg bei meinem 142-fps-Limit und das ist mir deutlich wichtiger.

@aufkrawall: Danke für dein Feedback.

VG Di_Stefan0

Hübie
2025-03-13, 18:19:22
Also ich habe mittlerweile Metro EE heruntergeladen, aber hatte keine Zeit mehr damit zu testen. Ich halte euch aber definitiv auf dem Laufenden. Cyberpunk hab ich noch installiert. Gibt's noch weitere Vorschläge? Ich mache es dann wie robbitop geschrieben hat: PT AUF max, UV soweit es geht herunter drehen und dann schauen wie hoch der Takt geht.
Ist das MPT nun mit RDNA4 kompatibel oder nicht? Hat das schon jemand getestet?

x-force
2025-03-13, 18:51:38
Also ich habe mittlerweile Metro EE heruntergeladen, aber hatte keine Zeit mehr damit zu testen. Ich halte euch aber definitiv auf dem Laufenden. Cyberpunk hab ich noch installiert. Gibt's noch weitere Vorschläge?

kingdome come erster teil hauptmenü, erster start, nichts in den optionen verändert -> direkt ins maximale powerlimit.
zieht hier nochmal 10% mehr als cyberpunk und endet bei 150-200mhz weniger takt

Di_Stefan0
2025-03-13, 19:07:19
Solche Powerviren sind wichtig beim Testen der Stabilität, aber man muss auch Spiele testen, die höhere Taktraten zulassen. In meinem Fall war das Assetto Corsa EVO, das bei -80 mV
und ~3.200 MHz den Treiber nach kürzester Zeit aussteigen ließ, während CP77 bei ~2.800 MHz scheinbar stabil lief. Und alles zwischen diesen Extremen muss man natürlich auch noch identifizieren und testen.

VG Di_Stefan0

gedi
2025-03-13, 19:25:27
Also ich habe mittlerweile Metro EE heruntergeladen, aber hatte keine Zeit mehr damit zu testen. Ich halte euch aber definitiv auf dem Laufenden. Cyberpunk hab ich noch installiert. Gibt's noch weitere Vorschläge? Ich mache es dann wie robbitop geschrieben hat: PT AUF max, UV soweit es geht herunter drehen und dann schauen wie hoch der Takt geht.
Ist das MPT nun mit RDNA4 kompatibel oder nicht? Hat das schon jemand getestet?

Steel Nomad haut kräftiger rein. Meine 4090 ist hier ständig an der 500w Kotzgrenze und auch der einzige Bench welches das Delta zwischen Edge und Hotspot so ziemlich hochbringt. Normal sind hier ~7- max. 10°C, Bei Nomad sind es derer über 20°C, bei 600W sind es gar ~25°C!

Hübie
2025-03-13, 20:03:38
kingdome come erster teil hauptmenü, erster start, nichts in den optionen verändert -> direkt ins maximale powerlimit.
zieht hier nochmal 10% mehr als cyberpunk und endet bei 150-200mhz weniger takt

KCD 1 hab ich sogar noch installiert. Danke für den Tipp. :smile:


Steel Nomad haut kräftiger rein. Meine 4090 ist hier ständig an der 500w Kotzgrenze und auch der einzige Bench welches das Delta zwischen Edge und Hotspot so ziemlich hochbringt. Normal sind hier ~7- max. 10°C, Bei Nomad sind es derer über 20°C, bei 600W sind es gar ~25°C!

Steel Nomad muss ich glaub ich noch kaufen. Hatte alle Benchmarks bis auf einen in der Bin und bin der Meinung der hieß Steel Nomad. Schau ich morgen mal. Bin gespannt, wie sich mein Sample dann schlägt.

marc-05
2025-03-13, 20:18:21
Gibts Test / Vergleich non XT vs . XT Takt bereinigt ?

fizzo
2025-03-13, 20:36:35
Gibts Test / Vergleich non XT vs . XT Takt bereinigt ?

Könnte dich interessieren (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13725355&postcount=597)

Dant3
2025-03-13, 20:39:28
Oh man, mich hat gerade wieder mal das Hardware - Pferd getreten.
Ich war gerade dabei die 7900 XT für den Verkauf fertig zu machen und wollte ein Inserat erstellen, als mir am Schreibtisch auffiel, dass die 9070 XT tatsaechlich im fucking idle, also komplett runter getakteter Core / Mem Zustand, mit wilden Frequenzsprüngen am Pfeifen ist.

Wenn man irgendwie scrollt oder sonstiges macht verschwindet es, nur wenn sie in den tiefsten Idle geht, fängt es sofort wieder an.
Es ist sehr leise, ja, aber dank Mesh und sonstiger Stille im Karton höre ich es auch ohne danach zu suchen heraus.
Das war´s dann für mich bis zur nächsten Generation.

marc-05
2025-03-13, 20:44:03
Thx Fizzo wären 27xx Mhz unterschied von 9%

horn 12
2025-03-13, 20:57:25
@Dant3

Dies bedeutet dass die 9070XT Retournierst
und die 7900 XT dann wieder behälst ?
Welche 9070XT hattest bitte

Dant3
2025-03-13, 21:17:32
Es war eine Pulse 9070 XT und ja, habe die Karte schon ausgebaut und zum DHL Menschen gebracht. Zur Sicherheit hatte ich die 7900 XT aber noch mal gegengetestet, um z.b das (relativ neue) Netzteil auszuschließen und hier sind keine Auffälligkeiten, es war also leider wirklich die neue Karte :/.

gedi
2025-03-13, 21:40:51
Es war eine Pulse 9070 XT und ja, habe die Karte schon ausgebaut und zum DHL Menschen gebracht. Zur Sicherheit hatte ich die 7900 XT aber noch mal gegengetestet, um z.b das (relativ neue) Netzteil auszuschließen und hier sind keine Auffälligkeiten, es war also leider wirklich die neue Karte :/.

Kauf eine Powercolor oder Asrock und hier sollten die beschriebenen Probleme ad acta gelegen sein. Laut beinahe allen Usern soll die Hellhound wirklich leise sein. Eine Nitro wäre dies wahrscheinlich auch, aber ...

Lurtz
2025-03-13, 21:43:14
Meine Hellhound fiept und zirpt wie blöd. Remember Raff: Jede Highend-GPU fiept...

crux2005
2025-03-13, 21:46:13
SFNWfkcTixs

GerryB
2025-03-13, 21:52:31
Sehr interessant. Hier die Werte meiner Sapphire Pure 9070(OC) mit 13600KF
Test gerade Setting 9, das soweit stabil läuft. 75% der Leistungsaufnahme bringt 96,9% der Standardleistung. Die Karte skaliert hervorragend und kann sehr sparsam betrieben werden. Genau das, was ich wollte :cool:

Das zitierte UVen der XT von Pseudo ist ja vermutlich nicht gamestable, Sup = ungeeignet.
Wie schaut es bei Deiner nonXT aus?

Im PCGH-Thread hat auch einer ne gute nonXT.(-100mV kein Problem)
Hatte da schonmal gefragt, ob die nonXT sich einfacher UVen lässt.

USER mit stabilen -100mV bitte mal antworten incl. SN+SW-Stresstest.
Ein einfacher Run ist zuwenig.
Ob man in Games dann sicherheitshalber noch 7-13mV runtergeht, ist ne andere Frage.

grobi
2025-03-13, 22:15:59
Habe lang überlegt ob ich den wechsel von einer RTX 3090 auf eine RX 9070XT machen soll. Mir bereiten die "nur" 16 GB Vram doch eher Kopfschmerzen. Die 24 Gb meiner 3090 werden nie ganz voll aber 18-20Gb schon oft gesehen. Es ist schade das es keine Option auf 24 oder auch 32 GB mit anderen Speicherbausteinen gibt. Das ist bei den neuen von Nvidia auch so ein Problem. So ist das leider nichts für mich.

mfg grobi

Raff
2025-03-13, 22:20:44
Meine Hellhound fiept und zirpt wie blöd. Remember Raff: Jede Highend-GPU fiept...

Ich lese trotzdem täglich, dass es nicht so ist. Das ist so ähnlich wie mit den vielen "Runs fine on my PC"-Dudes. Gut, dass das viele Leute Stottern und Fiepen nicht wahrnehmen, existieren tut der Crap aber trotzdem. Schmerzliche Grüße an Alex von DF. :D

MfG
Raff

Lurtz
2025-03-13, 22:23:37
Ich lese trotzdem täglich, dass es nicht so ist. Das ist so ähnlich wie mit den vielen "Runs fine on my PC"-Dudes. Gut, dass das viele Stottern und Fiepen nicht wahrnehmen, existieren tut der Crap halt trotzdem. Schmerzliche Grüße an Alex von DF. :D

Ich verstehe das Verhalten bei meiner Hellhound aber auch nicht. Die meisten Spiele fangen erst bei etwa 250-280 Watt deutlich damit an. The Last of Us Part I schon bei 220 Watt. Schalte ich Frame Generation an, verschiebt sich die Grenze aber nach unten!?
Dann gehts schon bei 180 Watt mit dem Fiepen los, wo zuvor noch Ruhe war! :confused:

Ist jedenfalls ein massiver Abturner, weiß nicht ob ich da Bock drauf habe. Nichts schreit mehr Eskapismus als unerwünschte Nebengeräusche des Spielgeräts...

raffa
2025-03-13, 22:28:06
Selbst meine (powercolor) rx 6600 rasselt, wenn mans drauf anlegt. Hörbare Schwingungen sollte man einfach abschaffen : )

Pseudo23
2025-03-13, 22:39:08
Das zitierte UVen der XT von Pseudo ist ja vermutlich nicht gamestable, Sup = ungeeignet.
Wie schaut es bei Deiner nonXT aus?

Im PCGH-Thread hat auch einer ne gute nonXT.(-100mV kein Problem)
Hatte da schonmal gefragt, ob die nonXT sich einfacher UVen lässt.

USER mit stabilen -100mV bitte mal antworten incl. SN+SW-Stresstest.
Ein einfacher Run ist zuwenig.
Ob man in Games dann sicherheitshalber noch 7-13mV runtergeht, ist ne andere Frage.

3 0 -20 2716 normal -15% 280 28xx 14485 97,03%
4 0 -20 2716 normal -25% 247 27xx 13958 93,50%

Das Setting 3 ist mein aktuelles Standardsetting bisher keine Abstürze.

UV bei gleichzeitigem senken des PowerTargets dürfte imho eher stabile Settings erzeugen. Beim Senken des PT wird aut. die Frequenz mit abgesenkt. Soweit ich das beobachten konnte hat die Senkung des PT auch wesentlich mehr Einfluss auf die Spannung und den GPU Takt als die dafür entsprechend vorgesehenen Slider.

GerryB
2025-03-13, 22:42:55
3 0 -20 2716 normal -15% 280 28xx 14485 97,03%
4 0 -20 2716 normal -25% 247 27xx 13958 93,50%

Das Setting 3 ist mein aktuelles Standardsetting bisher keine Abstürze.

UV bei gleichzeitigem senken des PowerTargets dürfte imho eher stabile Settings erzeugen.
Letzteres ist interessant.

-20mV ist aber nicht sehr viel
Hast Du da ein besonders tricky Game, wo das so sein muss?

fizzo
2025-03-13, 22:53:37
Das zitierte UVen der XT von Pseudo ist ja vermutlich nicht gamestable, Sup = ungeeignet.
Wie schaut es bei Deiner nonXT aus?

Im PCGH-Thread hat auch einer ne gute nonXT.(-100mV kein Problem)

Bin leider noch nicht viel zum Testen gekommen. Am Wochenende sieht es besser aus.

Bzgl. Nebengeräusche zur der Pure kann ich nichts negatives Berichten oder ich bin einfach zu alt. ;) Stille <144fps. Eventuell schlägt sich der Aufpreis auch bei den verbauten Komponenten nieder. CB zur Pure:

Pseudo23
2025-03-13, 23:23:48
Letzteres ist interessant.

-20mV ist aber nicht sehr viel
Hast Du da ein besonders tricky Game, wo das so sein muss?

Ich hab die -20 einfach gelassen, da die Spannung durch das niedrigere PT ohnehin gesenkt wird. Habe die Liste auch nur gemacht, weil nach UV Ergebnisses für diesen Benchmark gefragt wurde.

Letztendlich steht das finale Setup auch erst, wenn die Karte wassergekühlt ist. Dann würde ich sowohl UV als auch OC nochmal testen um auch Profile für verschiedene Spiele zu haben.

Was bedacht werden muss. Die Nitro+ hat ohnehin einen PT Vorsprung von ~10% mit ihren 334 Watt BoardPower. Da dürfte nach unten etwas Luft sein.

Dant3
2025-03-14, 00:14:40
Kauf eine Powercolor oder Asrock und hier sollten die beschriebenen Probleme ad acta gelegen sein. Laut beinahe allen Usern soll die Hellhound wirklich leise sein. Eine Nitro wäre dies wahrscheinlich auch, aber ...
Zu Asrock kann ich nichts sagen, aber eine Hellhound 7900 XT die ich damals vor der Nitro hier hatte, war die mit großem Abstand schlimmste Karte, die ich jemals gehört habe, was die Spulen betrifft.

Die hat auch im Idle, beim scrollen, deutlich hörbares rasseln verursacht (viel schlimmer als mit der 9070 XT) und schon mit 60 fps und moderater Auslastung so laut gepfiffen, wie die meisten Karten erst mit 100+.
Ich denke eine richtige Garantie für Spulenfreies Fiasko hat man bei keinem Hersteller.
Bei den jetzt aufgerufenen Preisen werde ich auch nichts bestellen. Zur UVP wäre es halt ein sehr günstiges mini - Upgrade geworden. Mit deutlicher Zuzahlung macht das nicht so viel Sinn für mich.

ashantus
2025-03-14, 05:24:07
Zu Asrock kann ich nichts sagen, aber eine Hellhound 7900 XT die ich damals vor der Nitro hier hatte, war die mit großem Abstand schlimmste Karte, die ich jemals gehört habe, was die Spulen betrifft.

Die hat auch im Idle, beim scrollen, deutlich hörbares rasseln verursacht (viel schlimmer als mit der 9070 XT) und schon mit 60 fps und moderater Auslastung so laut gepfiffen, wie die meisten Karten erst mit 100+.
Ich denke eine richtige Garantie für Spulenfreies Fiasko hat man bei keinem Hersteller.
Bei den jetzt aufgerufenen Preisen werde ich auch nichts bestellen. Zur UVP wäre es halt ein sehr günstiges mini - Upgrade geworden. Mit deutlicher Zuzahlung macht das nicht so viel Sinn für mich.

Die 9070 mit fehlerhaftem Takten ist dann tatsächlich als defekt zu retournieren.
Was die Auswahl einer Alternative betrifft, teile ich meine Gedanken.
Pulse oder Hellhound neigen wohl wirklich zum fiepen.
Taichi oder Nitro haben den 16 pin Anschluss.
Die XFX Karten hatten in den Tests die höchste Lautstärke.

Meiner Meinung nach bleiben 3.
1) asrock steel legend mit einem Standard- Platinenlayout. Die kommt übrigens als "dark" auch in schwarz. Soll auch mit UVP von 689 zu den günstigen gehören.
2) Red Devil, bessere Platine mit 3 mal 8 pin
3) Gigabyte Gaming oder Elite.
Anmerkung zu den Unterschieden
Beide mit 3 mal 8 pin. Beide haben die bessere Platine mit mehr Phasen, wobei die Elite-Platine noch ein Anti-Corrosion Coating hat. Aber die Elite mit etwas größerem Kühler. Aufgrund der 5 cm mehr Länge glaube ich, dass hier 3 mal 100 mm Lüfter statt 3 mal 90 bei der Gaming verbaut sind. Sonst noch ein zusätzliches Jahr Garantie (4 statt 3) und das RGB Zeug als Unterschied der Elite zur Gaming.

Ich werde noch beobachten, ob die Steel Legend (dark) ohne Fiepen bleibt. Dann kann man sich den Aufpreis sparen. Sonst tendiere ich zur Elite, sollte sie auf 799 fallen.

Hübie
2025-03-14, 09:51:55
Zwischenstand: Steel Nomad habe ich heute morgen mit -135 mV laufen lassen. Der Takt ging dann so auf ca. 3200 MHz und ist im ersten Durchlauf direkt abgekackt. Ich fange nun unten an und bin jetzt bei -75 mV, ~3110 MHz & um die 75°C bei etwa 1000 mV (993~1006).

https://1drv.ms/i/c/a3366ae7aeda0e90/EcdUCMz0-jdKrfNuPgkbamoBUuV175kbv6WmopJsz7RJGQ?e=4qmffJ

Bismarx
2025-03-14, 10:42:18
Interessanterweise werden für mich die UV mit geringerem PT schnell instabil. Also Benchmarks/Spiele laufen mit -100 mV, -500 MHz, -10% PT soweit stabil, wenn das PT jedoch auf -30% abgesenkt wird, wird es instabil.

Ich erkläre mir das so: die fest hinterlegte Spannungskurve wird durch das UV pauschal um 100 mV nach unten verschoben. Während das bei den höheren Frequenzen noch gut funktioniert, weil hier "von Haus aus" in der Spannungskurve ein höhere Puffer angelegt ist, d.h. z.B. bei ca. 2900 MHz auch mit -100 mV noch ca. 0.9 V anliegen, wird das bei geringeren Frequenzen zum Problem. Hier - also vielleicht bei 2400 MHz - liegen dann mit dem selben UV ggf. deutlich geringere Spannungen an (bei mir ~700 mV). Der Puffer ist dort nicht da = Absturz wenn der Chip mit geringerem PT niedriger taktet.

Letztlich kann man vmtl. erst dann ordentlich UV, wenn man auch die Spannungskurve vernünftig bearbeiten kann, und nicht einfach pauschal anhebt oder absenkt. Nur eine Vermutung.

Der_Korken
2025-03-14, 10:43:59
Die 9070 mit fehlerhaftem Takten ist dann tatsächlich als defekt zu retournieren.
Was die Auswahl einer Alternative betrifft, teile ich meine Gedanken.
Pulse oder Hellhound neigen wohl wirklich zum fiepen.
Taichi oder Nitro haben den 16 pin Anschluss.
Die XFX Karten hatten in den Tests die höchste Lautstärke.

Weiß man ob sich die Pure hier von der Pulse unterscheidet?

nairune
2025-03-14, 11:28:21
Nein weiß man nicht, denn um zu sowas eine Aussage zu treffen, die irgendwas wert ist, müsste man jeweils 3 Exemplare beider Modelle haben. Die 6 Karten dann auch noch an mehreren Netzteilen vergleichen.

Für jede "meine Karte fiept ohne Ende" Meldung zu einem Modell findet man auch ein "meine Karte ist stumm". Fühlt sich komplett nach Lotterie an.

dargo
2025-03-14, 12:08:08
Interessanterweise werden für mich die UV mit geringerem PT schnell instabil. Also Benchmarks/Spiele laufen mit -100 mV, -500 MHz, -10% PT soweit stabil, wenn das PT jedoch auf -30% abgesenkt wird, wird es instabil.

Was passiert wenn du hier mit dem Taktoffset mit anderen Werten spielst? Also kleinere, negative Werte bis hin zur Null. Ansonsten halt weniger, negativer Voltage-Offset bei deutlich größerem, negativen PT. Ich kann leider nichts mit solchen Aussagen anfangen ohne die real anliegenden Spannungen und Frequenzen beim Workload X zu sehen. Weil keiner diese wichtigen Daten postet. ;( Ist es wirklich so schwer sich ein paar sehr gut reproduzierbare Benchmarks rauszusuchen und alle nötigen Daten mit CapFrameX zu loggen?

ashantus
2025-03-14, 12:20:11
Weiß man ob sich die Pure hier von der Pulse unterscheidet?

Sind 100% identisch. Die pure ist nur in weiß.

dargo
2025-03-14, 12:22:23
Sind 100% identisch. Die pure ist nur in weiß.
Nur bei der XT von der Hardware her, wobei dort die Pure mehr PT hat. Bei non XT unterscheiden sich beide sowohl bei der Hardware als auch PT.

ashantus
2025-03-14, 13:55:11
Nur bei der XT von der Hardware her, wobei dort die Pure mehr PT hat. Bei non XT unterscheiden sich beide sowohl bei der Hardware als auch PT.
Hatte tatsächlich nur die xt Versionen verglichen. Danke für den Hinweis.

Lurtz
2025-03-14, 14:19:32
Muss man was machen damit die Tuning-Sektion der Radeon Software nicht ständig die Settings resettet?

M4xw0lf
2025-03-14, 14:22:43
Muss man was machen damit die Tuning-Sektion der Radeon Software nicht ständig die Settings resettet?
Einfach keinen Treiberreset provozieren :uup:
Aber das einzige was man wirklich tun kann ist wohl das ganze in Profile zu speichern sodass es leicht wiederhergestellt werden kann.

Lurtz
2025-03-14, 14:25:35
Scheint sich auch ohne Treiberreset teils zurückzusetzen :uponder:

Das mit dem Spulenfiepen ist ja auch esoterisch. RE4 mit RT und über 300 W fiept kein bisschen, RDR2 schon bei 220 W...

dargo
2025-03-14, 14:49:44
Scheint sich auch ohne Treiberreset teils zurückzusetzen :uponder:

Willkommen als Early Access. ;) Treiber offenbar noch in dem Bereich buggy.

nairune
2025-03-14, 15:12:09
Scheint sich auch ohne Treiberreset teils zurückzusetzen :uponder:


Passiert das auch komplett stock? Ansonsten kriegst das halt nicht immer mit, aber stabil isses nicht.

horn 12
2025-03-14, 15:14:09
Wie berichtet Besitzer eine Absolut Stillen, Leisen 9070 XT Hellhound seit Dienstag. Abend!
Alles gut auch noch am Mittwoch und dann ab Gestern:
Habe nun im Desktop und beim Zocken mit meiner 9070 XT HellHound
nun doch ein permanentes "Schleifen" oder "Rauschen " auch wenn Keine Lüfter drehen.
Weiss nicht wie beschreibe,- das es sich anhört!

Dies WAR AM ESTEN Tag nicht da und nun doch störend!

Immer selbe Lautstärke aber!
Was kann dies sein?

Achill
2025-03-14, 15:19:43
Wie berichtet Besitzer eine Absolut Stillen, Leisen 9070 XT Hellhound seit Dienstag. Abend!
Alles gut auch noch am Mittwoch und dann ab Gestern:
Habe nun im Desktop und beim Zocken mit meiner 9070 XT HellHound
nun doch ein permanentes "Schleifen" oder "Rauschen " auch wenn Keine Lüfter drehen.
Weiss nicht wie beschreibe,- das es sich anhört!

Dies WAR AM ESTEN Tag nicht da und nun doch störend!

Immer selbe Lautstärke aber!
Was kann dies sein?

Evtl. ein anderer Lüfter im Gehäuse? Diesen gedrückt / bewegt beim Umbau? Auch wenn es schon Zufall wäre, es kann ein Lüfter-Lager im Gehäuse auch mal kaputt gehen und anfangen Geräusche zu machen ...

=> Einfach mal alle Gehäuse-Lüfter deaktivieren und schauen ob das Geräusch noch da ist. Und auch ein Netztteil hat i.d.R. Lüfter, auch dort könnte die Ursache liegen.

horn 12
2025-03-14, 15:24:59
Ja, Monitor Dell 3225QF und Lüfter am Gehäuse schon gececkt
Diese sind es definitiv nicht,- wenn der NT Lüfter!

Lurtz
2025-03-14, 15:48:17
Willkommen als Early Access. ;) Treiber offenbar noch in dem Bereich buggy.
Mag sein. Hatte jetzt auch ein paar Blackscreens nur mit reduziertem Powertarget. Das sollte doch wie bei nVidia bei Reduzierung immer stabil sein, oder?

Wie berichtet Besitzer eine Absolut Stillen, Leisen 9070 XT Hellhound seit Dienstag. Abend!
Alles gut auch noch am Mittwoch und dann ab Gestern:
Habe nun im Desktop und beim Zocken mit meiner 9070 XT HellHound
nun doch ein permanentes "Schleifen" oder "Rauschen " auch wenn Keine Lüfter drehen.
Weiss nicht wie beschreibe,- das es sich anhört!

Dies WAR AM ESTEN Tag nicht da und nun doch störend!

Immer selbe Lautstärke aber!
Was kann dies sein?
Ich habe auch das Gefühl die Geräusche ändern sich teils :ugly:

dargo
2025-03-14, 15:52:19
Mag sein. Hatte jetzt auch ein paar Blackscreens nur mit reduziertem Powertarget. Das sollte doch wie bei nVidia bei Reduzierung immer stabil sein, oder?

Bei ansonsten Stock Settings und nur verändertem PT sollte alles stabil laufen.

Lurtz
2025-03-14, 16:10:58
Gut, crasht jetzt auch mit default Settings bei Alt+Tab in KCD2. Keine Ahnung ob der letzte Patch das kaputt gemacht hat der generell instabil.

horn 12
2025-03-14, 17:14:09
Das Kuriose, war mit Sohnemann 90 Minuten weg, drausßen im Freien
Retour, Rechner Kalt - Idle absolute Stille,-
Immer nach dem Zocken, oder erst Längere Zeit danach, Youtube oder Waht auch immer kommt dieses Geräusch daher ? ?

Doch die Spulen der HellHound ?

Seth
2025-03-14, 17:22:46
Meine Sapphire 9070XT Pulse läuft hier seit gestern Abend. Momentan mit -70mV und +10% PT.
Daten währen 3D Mark Stress Test.
GPU: ~54°C
GPU Hotspot: ~78°C
Speicher: ~88°C
Lüfter: 1650-1700RPM
Bord Power Draw: 334W

Ähnlich laut wie die Referenz 6900XT würde ich sagen. In einigen Situationen leises "Spulenrasseln", aber auch nicht mehr als bei der 6900XT und nicht störend für mich.
Leistungsupgrade ist ganz nett, aber eigentlich hätte ich doch lieber mehr. -_-
9090XT wäre nett gewesen. Schiele jetzt doch wieder auf die 5090...

Dorn
2025-03-14, 17:25:37
@Horn

Also wenn du Probleme bei Orten hast, installiere dir diese App auf dein Smartphone:
https://play.google.com/store/apps/details?id=org.intoorbit.spectrum&hl=en-US&pli=1

Spectroid is a real-time audio spectrum analyzer with reasonable frequency resolution across the the entire frequency spectrum.

Hab mit dem Teil herausgefunden bei welcher Frequenz mein Tinnitus getriggert wird und welche Geräte, das verursachen. Ganz weit oben Monitore und TVs.

Lurtz
2025-03-14, 19:00:12
Ok, nach Standby gerade zwei Treiber-Timeouts hintereinander im Browser gehabt. Da liegt noch einiges im Argen, sowas kenne ich von nVidia in den letzten Jahren gar nicht und da hatte ich die Karten auch immer kurz nach Release geholt.

Die Lüfter der Hellhound haben vorhin bei 300 W auch ordentlich gewummert :usweet:

Ex3cut3r
2025-03-14, 19:10:37
Meine Sapphire 9070XT Pulse läuft hier seit gestern Abend. Momentan mit -70mV und +10% PT.
Daten waren 3D Mark Stress Test.
GPU: ~54°C
GPU Hotspot: ~78°C
Speicher: ~88°C
Lüfter: 1650-1700RPM
Board Power Draw: 334W


Schluckt auch ganz schön für eine Performance Karte. Mein lieber Scholli.

aufkrawall
2025-03-14, 19:15:47
Ok, nach Standby gerade zwei Treiber-Timeouts hintereinander im Browser gehabt. Da liegt noch einiges im Argen, sowas kenne ich von nVidia in den letzten Jahren gar nicht und da hatte ich die Karten auch immer kurz nach Release geholt.

Wobei Crashes nach Stand-By gerade auch diverse Nvidia-User hatten, insbesondere auf Blackwell.
Nutze kein Stand-By und hatte bislang eigentlich noch gar keine Bugs (gut, der Cursor auf dem Desktop ruckelt ohne 3D-Last gerne mal...). Bro sind auch noch keine Grafikfehler aufgefallen, anders als auf Blackwell. :freak:
Der Treiber Shader Cache in Fortnite hält jetzt auch schon eine Woche mit allen APIs. Für AMD-Verhältnisse regelrecht verrückt. :eek:

dargo
2025-03-14, 19:17:37
Schluckt auch ganz schön für eine Performance Karte. Mein lieber Scholli.
Überraschung bei 110% PT. Dass ne XT 304W nach Referenzvorgabe säuft ist längst bekannt.

DeadMeat
2025-03-14, 19:19:20
hört sich wirklich recht kaputt an.
Da hatte ich bisher mehr glück trotz uv und -pt nicht einen game crash/video stream crash (die find ich immer sehr empfindlich) oder irgendwelche treiber timeouts. Auch standby und hibernate funktionieren überraschend auch damit hatte ich bei der 4060/7900xt und auch bei Intel immer wieder einige Probleme.
Ist aber keine hellhound sondern sapphire(pure) also nicht sehr vergleichbar.

Ex3cut3r
2025-03-14, 19:28:24
Überraschung bei 110% PT. Dass ne XT 304W nach Referenzvorgabe säuft ist längst bekannt.

Ich finds deswegen so interessant. Weil ja damals HWU mit dem "Leak" als "Fake" entlarvt worden war. Die Angabe war aber fürs ganze System. Was dann wieder doch stimmt. Wenn man mal kurz überlegt.

https://s1.directupload.eu/images/250304/4f4fda8n.png

Die RTX 5070 Ti ist immer schneller und frisst teilweise satte 100W weniger. Wenn es in ein paar Monaten diese für 750-850€ gibt. Sehe ich die GeForce eigentlich als die bessere GPU an.

jorge42
2025-03-14, 19:31:25
Meine Sapphire 9070XT Pulse läuft hier seit gestern Abend. Momentan mit -70mV und +10% PT.
Daten währen 3D Mark Stress Test.
GPU: ~54°C
GPU Hotspot: ~78°C
Speicher: ~88°C
Lüfter: 1650-1700RPM
Bord Power Draw: 334W

Ähnlich laut wie die Referenz 6900XT würde ich sagen. In einigen Situationen leises "Spulenrasseln", aber auch nicht mehr als bei der 6900XT und nicht störend für mich.
Leistungsupgrade ist ganz nett, aber eigentlich hätte ich doch lieber mehr. -_-
9090XT wäre nett gewesen. Schiele jetzt doch wieder auf die 5090...

Das ist so als ob man sich nen sportlichem Mittelklassewagen geholt hat und sagt, eigentlich hätte ich doch eher gerne ne getunten Porsche... Vor allem beim Preis. Frage mich warum man sich mit einer 800€ Karte begnügt, wenn man doch lieber eine für über 2000 hätte haben wollen?

gedi
2025-03-14, 19:37:30
Zwischenstand: Steel Nomad habe ich heute morgen mit -135 mV laufen lassen. Der Takt ging dann so auf ca. 3200 MHz und ist im ersten Durchlauf direkt abgekackt. Ich fange nun unten an und bin jetzt bei -75 mV, ~3110 MHz & um die 75°C bei etwa 1000 mV (993~1006).

https://1drv.ms/i/c/a3366ae7aeda0e90/EcdUCMz0-jdKrfNuPgkbamoBUuV175kbv6WmopJsz7RJGQ?e=4qmffJ

Wenn Steel Nomad , dann läuft der restliche Krempel auch. Hat jemand von euch mal auf die Suche in den temporären Win-Dateien, nach einer .txt Datei gemacht. Hier könnte man die Settings easy optimieren. Gab es mit den ersten Treibern für RDNA3 auch, leider musste ich dann geschäftlich ins Ausland und als ich wieder zurück kam, war die Datei verschlüsselt.

nairune
2025-03-14, 19:39:27
Ich finds deswegen so interessant. Weil ja damals HWU mit dem "Leak" als "Fake" entlarvt worden war. Die Angabe war aber fürs ganze System. Was dann wieder doch stimmt. Wenn man mal kurz überlegt.
Die RTX 5070 Ti ist immer schneller und frisst teilweise satte 100W weniger. Wenn es in ein paar Monaten diese für 750-850€ gibt. Sehe ich die GeForce eigentlich als die bessere GPU an.

Warum schreibst du so einen Unsinn, wenn es handfest nach dem Release gemessene Daten gibt?

https://i.imgur.com/U8iLdVG.png

https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/Tests/Preis-Test-kaufen-Release-Specs-Benchmark-1467270/6/

edit: Also lässt sich zusammenfassen unter Volllast verbrauchen sie das gleiche. Wenn die 5070 Ti mal genug schneller ist, dass sie in Teillast gehen kann, wo die 9070 XT noch voll drauf muss, dann verbraucht sie etwas weniger. Wenn man FPS Limits setzt und die 9070 in Teillast geht, hast du die Graphen ja sicher gesehen, da sieht es dann andersrum aus.
Idle liegt 9070 vorne.

Ex3cut3r
2025-03-14, 19:43:09
Wieso Unsinn? HWU hatte damals das ganze System gemessen IMHO.

Und hier bei DF sieht man es auch sehr schön. Satte 100W mehr als die 5070 Ti.

https://s1.directupload.eu/images/250314/bh7iydgi.png

Quelle: https://www.youtube.com/watch?v=vfc3nhus12k

Ich gönne euch/AMD die Karten. Aber als sparsam kannst du mir die XT nicht verkaufen. Da gehe ich nicht mit.

Lurtz
2025-03-14, 19:45:56
RDNA4 nutzt das Powerlimit bei unlimitierten FPS immer bis zum Anschlag aus, während sie mit Framelimiter dann teils deutlich effizienter als Geforces werden. Wieso ist das so? Wegen der ganzen dedizierten Recheneinheiten der RTX-Karten, während bei Radeons alles über die CUs läuft? :confused:

gedi
2025-03-14, 19:48:51
Wukong ist ein NV-Game. Ich hätte gerne Verleiche mit einem MSFS, F1 24, ... Sprich einem Spiel, welches keines der Partner bevorzugt!

basix
2025-03-14, 19:49:15
Wieso Unsinn? HWU hatte damals das ganze System gemessen IMHO.

Und hier bei DF sieht man es auch sehr schön. Satte 100W mehr als die 5070 Ti.

https://s1.directupload.eu/images/250314/bh7iydgi.png

Quelle: https://www.youtube.com/watch?v=vfc3nhus12k

Ich gönne euch/AMD die Karten. Aber als sparsam kannst du mir die XT nicht verkaufen. Da gehe ich nicht mit.

Nimm doch bitte keine Extremwerte. Die UE5 ist eh ein wenig speziell auf Lovelace / Blackwell, insbesondere auf dickeren Karten (relativ niedriger Verbrauch).

Nimm doch bitte lieber den Durchschnitt ;)
- CB 5070 Ti = 265W
- CB 9070 XT = 303W
- CB 9070 = 220W
- CB 5070 = 222W
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5070-ti-test.91379/seite-9#abschnitt_leistungsaufnahme_gaming_alle_spiele_telemetrie
https://www.computerbase.de/artikel/grafikkarten/amd-radeon-rx-9070-xt-rx-9070-test.91578/seite-9#abschnitt_leistungsaufnahme_gaming_alle_spiele_telemetrie
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5070-test.91530/seite-7#abschnitt_leistungsaufnahme_gaming_alle_spiele_telemetrie

Woha, 5070 verbraucht mehr als eine 9070 ;)

Und die 9070XT ist nicht so weit weg von der 5070 Ti, im Schnitt bei weitem keine 100W. Aber es ist natürlich klar, dass die 9070 XT deutlich über dem Sweetspot läuft und die 5070 Ti ziemlich nah am Sweetspot. Das verzerrt das Bild. Das selbe bei der 5070, die läuft auch über dem Sweetspot (obwohl deren Takt nur marginal höher ist als bei der 5070 Ti...).

Lurtz
2025-03-14, 19:50:33
Computerbase hat doch zig Spiele gemessen, RDNA4 nutzt das Powerlimit immer voll aus. Oder sind die Geforces in den Titeln einfach nur langsamer als sie sein sollten, weil sie ihr Powerlimit nicht erreichen?

dargo
2025-03-14, 19:50:34
Die RTX 5070 Ti ist immer schneller und frisst teilweise satte 100W weniger. Wenn es in ein paar Monaten diese für 750-850€ gibt. Sehe ich die GeForce eigentlich als die bessere GPU an.
Es interessiert in diesem Thread niemanden eine Geforce. Zudem... bis eine 5070TI 750-800€ kostet liegt eine 9070XT bei 600€ oder weniger.

Seth
2025-03-14, 19:52:16
Das ist so als ob man sich nen sportlichem Mittelklassewagen geholt hat und sagt, eigentlich hätte ich doch eher gerne ne getunten Porsche... Vor allem beim Preis. Frage mich warum man sich mit einer 800€ Karte begnügt, wenn man doch lieber eine für über 2000 hätte haben wollen?
1. War es eine 690€ Karte, für 800€ hätte ich nicht bestellt.
2. Hoffnung dass die Leistung genügt.
3. Es gibt keine 2000€ Karte, nur eine 2330€+ Karte, die man momentan zuverlässig nur für 3400€ bekommt. Und das ist mir dann doch zu viel des Guten.

@Ex3cuter: Wieso tust du jetzt so als wenn der Verbrauch so eine Überraschung und eine neue Erkenntnis wäre? :confused:

aufkrawall
2025-03-14, 19:57:49
RDNA4 nutzt das Powerlimit bei unlimitierten FPS immer bis zum Anschlag aus, während sie mit Framelimiter dann teils deutlich effizienter als Geforces werden. Wieso ist das so? Wegen der ganzen dedizierten Recheneinheiten der RTX-Karten, während bei Radeons alles über die CUs läuft? :confused:
Nvidia ist komisch konservativ bis altbacken in die Richtung. Das war eigentlich schon bei RDNA2 vs. Ampere so, RDNA3 war halt Chiplet-Schrott.
Die dynamische Taktanpassung von Nvidia ist immer irgendwie träge oder zu grob. Ggf. hat AMD hier einfach mehr Know-How aus der CPU/APU-Sparte.
Man könnte natürlich argumentieren, dass ohne die Eindrosselung AMD noch weiter Effizienz verlieren würde und die Nvidia Core-Arch entsprechend noch besser ist. Und dann kann man eigentlich noch UV bei Nvidia vs. kein UV bei AMD vergleichen, weil Letzteres sowieso nie stabil ist.
Aber letztlich ist das im Desktop-PC alles egal, und bei Notebook-Grafikkarten wär der niedrige Teillast-Verbrauch der Radeons auch ein riesiger Vorteil.
Die 110W Verbrauch in Fortnite könnten im Sommer nützlich werden, falls ich die GPU dann wider Erwarten noch haben sollte. :D

basix
2025-03-14, 20:00:23
Oder sind die Geforces in den Titeln einfach nur langsamer als sie sein sollten, weil sie ihr Powerlimit nicht erreichen?

Die GeForces seit Ada verhalten sich ganz anders als andere GPUs. Die drosseln selbstständing ihren Verbrauch, wenn etwas limitiert. Ich nehme an, da wird relativ feinkörniges Power/Clock-Gating betrieben. Das kann auch im GPU-Limit auftreten oder wenn man einen fixierten Takt fährt (evtl. limitieren z.B. die ROPs und der Rest der SMs geht schlafen, keine Ahnung). Die GPUs sind also nicht wirklich langsamer als sie sein könnten, optimieren aber ihren Energieeffizienz. Zudem bleibt der GPU-Takt bleibt über viele Spiele relativ konstant (nahe am Boost Clock Target).

RDNA4 usw. reissen einfach den Takt hoch. Doch wir alle wissen, dass die letzten paar Megahertz jeweils teuer erkauft werden und der Verbrauch steigt.

Sprich:
RDNA4 hat ein anderes Optimierungstarget, nämlich alle Watts möglichst ausnutzen. Nvidia "drosselt" die Karten leicht, aber das muss nicht zwingend bedeuten, dass die Performance sinkt (sinkt der Verbrauch, kann zum Teil auch ein höherer Takt gefahren werden)
RDNA4 wird somit also nur effizient sein, wenn man den Maximaltakt und/oder das Powerlimit begrenzt. Dann kann RDNA4 sehr effizient sein und auch Blackwell übertreffen.

Der_Korken
2025-03-14, 20:01:52
Wieso Unsinn? HWU hatte damals das ganze System gemessen IMHO.

Und hier bei DF sieht man es auch sehr schön. Satte 100W mehr als die 5070 Ti.

Schrieb er und postete einen Link, wo auch wieder der Verbrauch der Karte allein gemessen wird. Die 9070(XT) verbraucht genauso viel, wie sie soll, das haben die Launch-Reviews alle nachgewiesen. Was HWU gemessen hat, war allerdings ziemlicher Tobak. Da war teilweise die 5080 sparsamer als die 5070, die 5080 durchgängig unter der 4080 trotz 360 vs 320 Powerlimit, zwischen ähnlichen Modellen wie 7900XT und 7900XTX teilweise krass hohe Unterschiede (70W+), obwohl beide Modelle nur 40W im Powerlimit trennen, usw. Meine Vermutung ist, dass dort nicht im GPU-Limit getestet wurde und zusätzlich vielleicht noch mit der Konfiguration des Systems was nicht gestimmt hat. Wenn die 9070XT 100W mehr zieht als die 5070Ti muss das irgendwo herkommen. Entweder verbraucht die CPU so viel mehr, was bei einem 9800X3D gar nicht sein kann oder die 5070Ti schnurrt irgendwo bei 200-220W, was dann wieder die Frage aufwirft, warum sie das in der Situation tut. Das hätte denen eigentlich selber auffallen müssen, dass ihr Test massiv von den Relationen abweicht, die durch die Powerlimits der Karte gegeben sind. Meinetwegen kann ja ruhig Nvidia bei Teillast besser runterskalieren als AMD (wobei der CB-Test da anderes gezeigt hat), aber dann muss man das auch so kommunizieren, dass da nicht mit Volllast gemessen wurde.

Lange Rede, kurzer Sinn: Die Verbrauchswerte von HWU waren sehr unstimmig und widersprachen einem Großteil der anderen Reviews. Da traue ich lieber der Mehrheit.

aufkrawall
2025-03-14, 20:04:30
RDNA4 usw. reissen einfach den Takt hoch. Doch wir alle wissen, dass die letzten paar Megahertz jeweils teuer erkauft werden und der Verbrauch steigt.
Aber nur in Titeln, die die GPU weniger auslasten. In Titeln mit hohem Verbrauch fällt man entsprechend auf niedrigere effizientere Bereiche der Kurve zurück.
AMDs Ansatz ist aus Leistungssicht besser, weil sie für den jeweiligen Verbrauch alles rausholt, was geht. Nvidia verschenkt so gesehen Leistung in Titeln mit weniger Auslastung.
Sieht man mitunter auch in fps, etwa in Marvel Rivals. Hier suckt Blackwell mit Lumen bei der Auslastung noch mehr als die 4090 und performt entsprechend unterdurchschnittlich.

Hakim
2025-03-14, 20:05:50
Mein Tipp immer FPS limitieren, hat mehrere Vorteile, und ist bei beiden dann auch Sparsamer. Wobei ja wenn man 280Hz Moni hat bringt es vielleicht nicht soviel :)

basix
2025-03-14, 20:07:27
Aber nur in Titeln, die die GPU weniger auslasten. In Titeln mit hohem Verbrauch fällt man entsprechend auf niedrigere effizientere Bereiche der Kurve zurück.
AMDs Ansatz ist aus Leistungssicht besser, weil sie für den jeweiligen Verbrauch alles rausholt, was geht. Nvidia verschenkt so gesehen Leistung in Titeln mit weniger Auslastung.
Sieht man mitunter auch in fps, etwa in Marvel Rivals. Hier suckt Blackwell mit Lumen bei der Auslastung noch mehr als die 4090 und performt entsprechend unterdurchschnittlich.

Wenn man das Power Target trifft: Klar, dann drosselt die Karte entsprechend.

Zum Leistung verschenken bei Nvidia.
Nicht zwingend. Die Karten können eh nicht viel höher takten. Bei 3.2GHz ist Schluss und 2.8 GHz halten die Karten in fast allen Spielen. Bei RDNA4 sieht man von 2.6...3.25 GHz alles.

x-force
2025-03-14, 20:08:26
Computerbase hat doch zig Spiele gemessen, RDNA4 nutzt das Powerlimit immer voll aus. Oder sind die Geforces in den Titeln einfach nur langsamer als sie sein sollten, weil sie ihr Powerlimit nicht erreichen?

es gibt praktisch zwei gründe weshalb nv limitiert: powertarget oder spannung
wenn du cpu/framelimit, oder sync an hast, taktet die karte genau so hoch, wie sie muss, um ein neues bild nach entsprechender zeit fertig zu haben.
das ganze ist extrem effizient.

Zum Leistung verschenken bei Nvidia.
Nicht zwingend. Die Karten können eh nicht viel höher takten. Bei 3.2GHz ist Schluss und 2.8 GHz halten die Karten in fast allen Spielen. Bei RDNA4 sieht man von 2.6...3.25 GHz alles.

leistung verschenkt nv insofern, als dass sie nicht ausreichend powertarget geben, damit die karte ihre maximal möglichen ~3,3-3,4ghz in jedem szenario halten kann.
zusätzlich wahrscheinlich noch bei der spannung. bei 1,07v ist ende. entweder geht die spannung bei amd auf die lebensdauer, oder nv lässt nochmal einiges liegen.

Ex3cut3r
2025-03-14, 20:12:27
Nimm doch bitte keine Extremwerte. Die UE5 ist eh ein wenig speziell auf Lovelace / Blackwell, insbesondere auf dickeren Karten (relativ niedriger Verbrauch).

Nimm doch bitte lieber den Durchschnitt ;)
- CB 5070 Ti = 265W
- CB 9070 XT = 303W
- CB 9070 = 220W
- CB 5070 = 222W
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5070-ti-test.91379/seite-9#abschnitt_leistungsaufnahme_gaming_alle_spiele_telemetrie
https://www.computerbase.de/artikel/grafikkarten/amd-radeon-rx-9070-xt-rx-9070-test.91578/seite-9#abschnitt_leistungsaufnahme_gaming_alle_spiele_telemetrie
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5070-test.91530/seite-7#abschnitt_leistungsaufnahme_gaming_alle_spiele_telemetrie

Woha, 5070 verbraucht mehr als eine 9070 ;)

Und die 9070XT ist nicht so weit weg von der 5070 Ti, im Schnitt bei weitem keine 100W. Aber es ist natürlich klar, dass die 9070 XT deutlich über dem Sweetspot läuft und die 5070 Ti ziemlich nah am Sweetspot. Das verzerrt das Bild. Das selbe bei der 5070, die läuft auch über dem Sweetspot (obwohl deren Takt nur marginal höher ist als bei der 5070 Ti...).

Es interessiert in diesem Thread niemanden eine Geforce. Zudem... bis eine 5070TI 750-800€ kostet liegt eine 9070XT bei 600€ oder weniger.



@Ex3cuter: Wieso tust du jetzt so als wenn der Verbrauch so eine Überraschung und eine neue Erkenntnis wäre? :confused:

Schrieb er und postete einen Link, wo auch wieder der Verbrauch der Karte allein gemessen wird. Die 9070(XT) verbraucht genauso viel, wie sie soll, das haben die Launch-Reviews alle nachgewiesen. Was HWU gemessen hat, war allerdings ziemlicher Tobak. Da war teilweise die 5080 sparsamer als die 5070, die 5080 durchgängig unter der 4080 trotz 360 vs 320 Powerlimit, zwischen ähnlichen Modellen wie 7900XT und 7900XTX teilweise krass hohe Unterschiede (70W+), obwohl beide Modelle nur 40W im Powerlimit trennen, usw. Meine Vermutung ist, dass dort nicht im GPU-Limit getestet wurde und zusätzlich vielleicht noch mit der Konfiguration des Systems was nicht gestimmt hat. Wenn die 9070XT 100W mehr zieht als die 5070Ti muss das irgendwo herkommen. Entweder verbraucht die CPU so viel mehr, was bei einem 9800X3D gar nicht sein kann oder die 5070Ti schnurrt irgendwo bei 200-220W, was dann wieder die Frage aufwirft, warum sie das in der Situation tut. Das hätte denen eigentlich selber auffallen müssen, dass ihr Test massiv von den Relationen abweicht, die durch die Powerlimits der Karte gegeben sind. Meinetwegen kann ja ruhig Nvidia bei Teillast besser runterskalieren als AMD (wobei der CB-Test da anderes gezeigt hat), aber dann muss man das auch so kommunizieren, dass da nicht mit Volllast gemessen wurde.

Lange Rede, kurzer Sinn: Die Verbrauchswerte von HWU waren sehr unstimmig und widersprachen einem Großteil der anderen Reviews. Da traue ich lieber der Mehrheit.

Boah, nicht so viele auf einmal. Ok, dann nicht.

@Seth, war keine "neue" Erkenntnis. Sondern damals wurde HWU als "Fake" deklariert, obwohl die Werte für das ganze System durchaus passen.

Ich finde die 5070 Ti in ein paar Monaten für 750-850€ die bessere Karte.

-Schneller als eine 9070 XT
-Effizenter
-DLSS 4 Ohne Optiscaler GeFrickel.
-MFGx4

Aber lassen wir das. Soll jeder das kaufen, was er für richtig hält.

basix
2025-03-14, 20:12:52
leistung verschenkt nv insofern, als dass sie nicht ausreichend powertarget geben, damit die karte ihre maximal möglichen ~3,3-3,4ghz ~3.2GHz in jedem szenario halten kann.

Sieh dir die 5070 Ti an: 300W Power Target, 265W Verbrauch im Schnitt. Das selbe bei der 5080. Die 4090 verbrauch auch fast nie 450W. Das Power Limit limitiert in den meisten Fällen also nicht ;)

aufkrawall
2025-03-14, 20:12:59
Wenn man das Power Target trifft: Klar, dann drosselt die Karte entsprechend.

Nicht "wenn". Das ist bei der XT im GPU-Limit quasi als Grundannahme gegeben.


Zum Leistung verschenken bei Nvidia.
Nicht zwingend. Die Karten können eh nicht viel höher takten. Bei 3.2GHz ist Schluss und 2.8 GHz halten die Karten in fast allen Spielen. Bei RDNA4 sieht man von 2.6...3.25 GHz alles.
Ja, eben. Da fehlen entsprechend ~10% Takt in Spielen mit schlechter Auslastung. Zumal Blackwell afaik ootb auch nur mit 1050mV Maximalspannung läuft. Wird bei der nicht mehr taufrischen Fertigung wohl kaum das Maximum sein.

basix
2025-03-14, 20:15:31
Boah, nicht so viele auf einmal. Ok, dann nicht. Ich finde die 5070 Ti in ein paar Monaten für 750-850€ die bessere Karte.

-Schneller als eine 9070 XT
-Effizenter
-DLSS 4 Ohne Optiscaler GeFrickel.
-MFGx4

Aber lassen wir das. Soll jeder das kaufen, was er für richtig hält.
Naja, du hast es ja jetzt auch nicht "gelassen" und nochmals bestärkt, dass dir die 5070 Ti besser gefällt. Interessiert hier aber vermutlich: Niemand ;)

Deinen Punkten stimme ich prinzipiell zu (hinsichtlich Effizienz aber nur ohne manuelle Eingriffe). Bei den Preisen schauen wir aber noch, ob du eine ~MSRP Karte bekommst, der liegt zudem bei 879 Euro ;)

aufkrawall
2025-03-14, 20:17:05
Preisentwicklung bei Nvidia ist ohne Refresh meist für den Hintern.

Lurtz
2025-03-14, 20:18:17
Sieh dir die 5070 Ti an: 300W Power Target, 265W Verbrauch im Schnitt. Das selbe bei der 5080. Die 4090 verbrauch auch fast nie 450W. Das Power Limit limitiert in den meisten Fällen also nicht ;)
Die 4070 war ohne UV praktisch immer im Powerlimit.


Die 110W Verbrauch in Fortnite könnten im Sommer nützlich werden, falls ich die GPU dann wider Erwarten noch haben sollte. :D
Hoffst du noch auf eine 5070?:D

dildo4u
2025-03-14, 20:19:50
Boah, nicht so viele auf einmal. Ok, dann nicht.

@Seth, war keine "neue" Erkenntnis. Sondern damals wurde HWU als "Fake" deklariert, obwohl die Werte für das ganze System durchaus passen.

Ich finde die 5070 Ti in ein paar Monaten für 750-850€ die bessere Karte.

-Schneller als eine 9070 XT
-Effizenter
-DLSS 4 Ohne Optiscaler GeFrickel.
-MFGx4

Aber lassen wir das. Soll jeder das kaufen, was er für richtig hält.
Seit wann gehen Nvidia Karten unter UVP 880 ist das Minimum.
Und wie im Video erwähnt wurde es macht kein Sinn diese zu produzieren wenn 5080 für die selben Herstellungskosten mher abwerfen.

x-force
2025-03-14, 20:20:04
Sieh dir die 5070 Ti an: 300W Power Target, 265W Verbrauch im Schnitt. Das selbe bei der 5080. Die 4090 verbrauch auch fast nie 450W. Das Power Limit limitiert in den meisten Fällen also nicht ;)

ich mess lieber selbst, die testen alle nur mit angezogener handbremse ;)

ich hab zufällig gerade eine gigabyte 5070ti gaming oc mit 350w max target verbaut

bsp cp 2077 volle hütte @ uwqhd: 3337mhz bei 1,05v 320w
kindom come: 3120mhz bei 0,995v 350w

265w zieht das teil bei diablo 4 im limiter mit 2x mfg

aufkrawall
2025-03-14, 20:24:16
Hoffst du noch auf eine 5070?:D
Das Geld würde ich mir nun eher sparen und wieder eine 3060 einbauen.
Falls der Shader Cache für Fortnite aber wirklich gefixt ist, hab ich Stand Jetzt keine Veranlassung dazu.
Sieht erstmal gut aus. Als ich noch die 7800 XT verbaut hatte, hatte wurd der im Schnitt ca. nach der zweiten bis vierten Session "vergessen". Jetzt ist knapp eine Woche rum inkls. Spiel- und Windows-Update und Rumprobieren mit diversen Settings.

basix
2025-03-14, 20:24:56
Die 4070 war ohne UV praktisch immer im Powerlimit.

Die kleineren Karten scheinen das Powerlimit deutlich eher zu reissen, ja. Das spricht ja wieder dafür, dass die Karten bei Limitationen ein paar Chipteile deaktivieren. Bei kleinen Chips ist das deutlich weniger effektiv.

Deswegen verbrauchen 4090 usw. bei 4K nativ oder 8K dann auch sehr viel, erst dann werden sie voll ausgelastet.

ich mess lieber selbst, die testen alle nur mit angezogener handbremse ;)
Ja, mit DLSS-Q usw. sinkt der Verbrauch ;)

gedi
2025-03-14, 20:25:41
Effizienz mal anders: Wer hat wieviel ALUs verbaut und holt aus denen wieviel heraus?

basix
2025-03-14, 20:28:42
9070XT = 47.4 TFLOPS im Schnitt (CB), 100% Raster (CB)
5070 Ti = 49.3 TFLOPS im Schnitt (CB), 108% Raster (CB)

Nvidia ist also 1.04x effizienter pro FLOPS ;)

9070XT = 64 CU = 8192 FP32 ALUs, 100% Raster (CB)
5070 Ti = 70 SM = 8960 FP32 ALUs, 108% Raster (CB)

AMD ist also 1.01x effizienter pro FP32 ALU ;)

Edit:
Bei der 9070 vs. 5070 ist es bei FLOPS 1.05x (pro Nvidia) und 1.10x bei den SM/CU (ebenfals pro Nvidia, niedriger Takt bei der 9070).

x-force
2025-03-14, 20:31:35
Ja, mit DLSS-Q usw. sinkt der Verbrauch ;)

meine cp2077 daten sind inkl. pt, dlss-q und 3x mfg.

es werden zwar nur 320w angezeigt, trotzdem ist er im powerlimit
voltage limit kommt hier bei 3350mhz und ~260w, wenn man in den himmel guckt.

gedi
2025-03-14, 20:46:52
Es kommt halt auch immer darauf an, welche CPU und ggf. RAM verbaut ist. Bei dem Wenigem welche ich meine GPU belastet habe, war die Auslastung in 4k, alle Reger rechts, selten unter 450w! Mit der beschissenen NV-App hat sich diese geändert. Hier wurde Performance reduziert, ohne dass man es will!

crux2005
2025-03-14, 21:00:41
Verdächtig wenige neue Reviews von 9070XT's.

Buildzoid hat seine 9070 Swift auseinander genommen:
2DlY91FtXfg

Wukong ist ein NV-Game. Ich hätte gerne Verleiche mit einem MSFS, F1 24, ... Sprich einem Spiel, welches keines der Partner bevorzugt!

Und das machst du anhand was fest? Weil NV besser läuft? :D

GerryB
2025-03-14, 21:29:59
bezgl. Wukong
gibts auch Messungen von Igor für GPU+CPU

wenn man da statt ner Mercury mit 345W ne Pulse mit 304W nimmt, dann ist die ganze Aufregung sinnlos vertane Zeit, nach m.E. nicht der Rede wert

btw.
Das Game A bei Graka A besser läuft ist doch nichts Neues.
Dafür läuft Game B bei Graka B besser.
Oft liegts mehr an vorhandener/fehlender Softwareoptimierung als an der Hardware.(überzogene ULTRA-Settings)
Aus solchem Cherrypicking jetzt ne generelle Effizienz ableiten zu wollen ist sehr subjektiv.

Lurtz
2025-03-14, 21:48:43
KCD2 crasht permanent wenn minimiert. Ich glaube ich baue die 4070 wieder ein, macht keinen Spaß so.

Schlimmstenfalls hat die Karte einen weg. Vielleicht vorher nochmal DDU machen, wobei ich ja nur mit Optiscaler gefrickelt habe und das auch bei Karte @stock passiert.

gedi
2025-03-14, 22:06:11
Verdächtig wenige neue Reviews von 9070XT's.

Buildzoid hat seine 9070 Swift auseinander genommen:
https://youtu.be/2DlY91FtXfg


Nope, ich will einen objektiven Vergleich! !

Und das machst du anhand was fest? Weil NV besser läuft? :D

Nope, ich will einen objektiven Vergleich! Eigentlich will ich meine 4090 gegen eine Taichi tauschen. Und meine 4090 ist wahrscheinlich die Schnellste aller und im Gegensatz zu Asus und Co, fiept die nicht, egal wie hoch die FPS sind! Zwischen meiner 4090 und einer 5090 liegen out of the box lediglich 19%!

DrFreaK666
2025-03-14, 22:42:39
KCD2 crasht permanent wenn minimiert. Ich glaube ich baue die 4070 wieder ein, macht keinen Spaß so.

Schlimmstenfalls hat die Karte einen weg. Vielleicht vorher nochmal DDU machen, wobei ich ja nur mit Optiscaler gefrickelt habe und das auch bei Karte @stock passiert.

Wieso minimierst du so oft? Startest du das Spiel nicht um zu spielen?

Megamember
2025-03-14, 22:55:04
Wieso minimierst du so oft? Startest du das Spiel nicht um zu spielen?

MAch ich bei dem Spiel auch ziemlich oft wenn ich auf dem Schlauch stehe und um die richtigen Lösungswege und Fundorte zu ergoogeln.

gedi
2025-03-14, 23:09:48
MAch ich bei dem Spiel auch ziemlich oft wenn ich auf dem Schlauch stehe und um die richtigen Lösungswege und Fundorte zu ergoogeln.

Dann läuft dein System per se nicht stabil. Lass deinen RAM mal nicht optimiert laufen. Eine 9070 fordert ähnlich wie eine 5070ti und höher, dein System sehr viel mehr, da du hier ins CPU-Limit gelangst. Eine 4070 ist als Referenz kaum zu gebrauchen.

aufkrawall
2025-03-14, 23:23:31
Wieso minimierst du so oft? Startest du das Spiel nicht um zu spielen?
Was soll die OT-Frage hier?

Megamember
2025-03-14, 23:26:06
Dann läuft dein System per se nicht stabil. Lass deinen RAM mal nicht optimiert laufen. Eine 9070 fordert ähnlich wie eine 5070ti und höher, dein System sehr viel mehr, da du hier ins CPU-Limit gelangst. Eine 4070 ist als Referenz kaum zu gebrauchen.

Du verwechselst mich. Mit der 4090 in 60 Spielstunden bisher 0 Abstürze.

RoughNeck
2025-03-14, 23:49:56
KCD2 crasht permanent wenn minimiert. Ich glaube ich baue die 4070 wieder ein, macht keinen Spaß so.

Schlimmstenfalls hat die Karte einen weg. Vielleicht vorher nochmal DDU machen, wobei ich ja nur mit Optiscaler gefrickelt habe und das auch bei Karte @stock passiert.

Wennst eine SSD rumliegen hast, neues Win und prüfen.
Software macht manchmal interessante Sachen.

DrFreaK666
2025-03-15, 01:04:14
Was soll die OT-Frage hier?

Hab vom besten gelernt :biggrin:

Slipknot79
2025-03-15, 01:23:40
Seit wann gehen Nvidia Karten unter UVP 880 ist das Minimum.


"Normalpreise" (also bei guter Verfügbarkeit) der Partner-UVP-Karten lagen immer 5-10% unter Ngreedia-UVP. Eindeutig vor Corona und sogar phasenweise nach Corona.
Vor Corona habe ich NIE im NV-Shop eingekauft, weil ich gewusst habe, dass man hier verarscht wird. UVP-Partnerkarten lagen immer diese 5-10% darunter. Also wurden es immer Partnerkarten.
Während und nach Corona muss man auf diese Normalpreis-Phasen viel länger warten und die Normalpreis-Phasen dauern dann nur wenige Wochen/Monate.

Ich glaube, bei AMDead war das nicht anders.

horn 12
2025-03-15, 02:15:38
Übertäter gefunden:
Es ist der Chipsatz Lüfter des MSI Mainboards!

Ist der MSI X570 Gaming Wifi Chipsatzlüfter der niemals auffällig wurde
und nun mit der Längeren Karte 9070XT nach einiger Zeit Gas gibt und Aufdreht!
Werde jenen Putzen, entstauben und dann einfach niedrger drehen lassen müssen!

dargo
2025-03-15, 08:04:20
Die Acer Nitro Serie ist endlich verfügbar.
https://www.notebooksbilliger.de/acer%252bnitro%252bamd%252brx%252b9070%252b16g%252boc%252b876813?awc=11348_17420 22158_62dfdea0d338fc66916a50a68693f1a5&nbb=2177fc&nbbct=1001_420053&pid=11348_1742022158_62dfdea0d338fc66916a50a68693f1a5&wt_cc8=httphardwareluxxde

Zu dieser Serie haben wir noch gar keine Tests? Oder habe ich was übersehen?

Schnitzl
2025-03-15, 08:47:30
https://lanoc.org/review/video-cards/acer-rx-9070-nitro-oc?showall=1

ist aber die non-XT

jorge42
2025-03-15, 09:08:27
1. War es eine 690€ Karte, für 800€ hätte ich nicht bestellt.
2. Hoffnung dass die Leistung genügt.
3. Es gibt keine 2000€ Karte, nur eine 2330€+ Karte, die man momentan zuverlässig nur für 3400€ bekommt. Und das ist mir dann doch zu viel des Guten.

@Ex3cuter: Wieso tust du jetzt so als wenn der Verbrauch so eine Überraschung und eine neue Erkenntnis wäre? :confused:

Dann hast du doch alles richtig gemacht, ich würde mich über die 9070xt freuen

Master3
2025-03-15, 09:40:20
Mein Fokus der Performance liegt beim MS FS2024.
So wirklich viel zum Fliegen bin ich noch nicht gekommen, aber eines ist mir aufgefallen. Wenn ich verschiedenste Orte der Welt ansteuere, habe ich das Gefühl, dass er den VRAM irgendwann voll haut (obwohl er so bei 14,5-15GB stoppt) und irgendwann läuft die Karte mit deutlich unter 230W und damit brechen die FPS ein.
Wenn ich frisch z.B. New York als Seightseeing starte, dann läuft der mit gut über 60FPS (UWQHD, Hoch bis Ultra, Raytracing Schatten an) und im Powerlimit.
Grundsätzlich richtig gut von der Performance her.

Ist die Frage ob das ein Problem vom Game ist oder AMD den VRAM nicht richtig managed. Hat jemand ähnliche Beobachtungen gemacht?

horn 12
2025-03-15, 09:48:05
Ja, bei Indy ist dies auch der Fall
Denke da muss AMD noch am Treiber feilen,- obwohl bereits 2 Monate verschoben worden ist.
haben sich Anfang des Jahres einfach zu viel vorgenommen!

Lurtz
2025-03-15, 10:35:45
Dann läuft dein System per se nicht stabil. Lass deinen RAM mal nicht optimiert laufen. Eine 9070 fordert ähnlich wie eine 5070ti und höher, dein System sehr viel mehr, da du hier ins CPU-Limit gelangst. Eine 4070 ist als Referenz kaum zu gebrauchen.
Das wage ich zu bezweifeln. RAM läuft default. Würde es jetzt nur in Spielen crashen, ok, aber Treiber-Timeouts nach Standby und bei minimierten 3D-Anwendungen?

Bei KCD2 kanns natürlich schlichtweg am Spiel liegen, die letzten Patches haben da offenbar einiges kaputt gemacht.

Hakim
2025-03-15, 11:25:48
Die Acer Nitro Serie ist endlich verfügbar.
https://www.notebooksbilliger.de/acer%252bnitro%252bamd%252brx%252b9070%252b16g%252boc%252b876813?awc=11348_17420 22158_62dfdea0d338fc66916a50a68693f1a5&nbb=2177fc&nbbct=1001_420053&pid=11348_1742022158_62dfdea0d338fc66916a50a68693f1a5&wt_cc8=httphardwareluxxde

Zu dieser Serie haben wir noch gar keine Tests? Oder habe ich was übersehen?

Wie waren den die älteren Acer Karten? Ich verbinde mit Acer irgendwie hauptsache billig. Und der Name erinnert mich an einem Spülmittel. Aber ja P\L waren die früher bei Laptops top.

OgrEGT
2025-03-15, 11:41:50
Wie waren den die älteren Acer Karten? Ich verbinde mit Acer irgendwie hauptsache billig. Und der Name erinnert mich an einem Spülmittel. Aber ja P\L waren die früher bei Laptops top.
Da fehlt halt das "+" :biggrin:

Lurtz
2025-03-15, 11:58:32
Das wage ich zu bezweifeln. RAM läuft default. Würde es jetzt nur in Spielen crashen, ok, aber Treiber-Timeouts nach Standby und bei minimierten 3D-Anwendungen?

Bei KCD2 kanns natürlich schlichtweg am Spiel liegen, die letzten Patches haben da offenbar einiges kaputt gemacht.
Hab nochmal DDU für alle drei Vendor laufen lassen, Optiscaler neu eingerichtet, jetzt scheints zu laufen, auch mit reduziertem PT.

Mal sehen was nach Standby passiert...

Ice-Kraem
2025-03-15, 12:33:57
Heute kam die 9070 von Gigabyte an.
Eingebaut und läuft. Leise und doppelt so schnell mit besseren Einstellungen als die 3070.

Was mich wundert ist, das der AMD Treiber jetzt nörgelt das mein System nicht rbar und UEFI eingestellt hat und so die Karte nicht unterstützt. Aber läuft alles und dem Thema widme ich mich ein anderes mal denke ich. Festplatte C muss dann noch auf gpt für umgeändert werrden. Dafür habe ich keine Lust. Hätte ich gemacht wenn es nicht gegangen wäre. Aber wenn jetzt nur die Meldung vom Treiber kommt und trotzdem alles geht, ist es mir egal. Werte in Games und 3d mark passen eigentlich auch soweit.

phoenix887
2025-03-15, 13:02:57
Habe gestern meine ASUS Prime Non-XT für den UVP eingebaut. Läuft Perfekt, leiser als meine 7600XT, und dank PT Plus 10% und -30mV bombenfest unter voll Last mit knapp über 3Ghz bei ca 250W.

Dürfte der Standard 9070 XT noch näher kommen. Richtig Entscheidung den momentanen Aufpreis von 200-300 Euro für eine XT nicht zu zahlen, von den 629 Euro ausgehend.

aufkrawall
2025-03-15, 13:41:09
Hab nochmal DDU für alle drei Vendor laufen lassen, Optiscaler neu eingerichtet, jetzt scheints zu laufen, auch mit reduziertem PT.

Spiel schon auf borderless gestellt?
MPO macht noch etwas komische Sachen mit dem Treiber, die Einblendung des Windows Lautstärke-OSDs macht etwa seltsame Einbrüche, insbesondere mit Treiber-Vsync.
Wobei es mir auch manchmal passiert, dass ich OptiScaler ggf. unter verschiedenen Dateinamen mehrfach im Verzeichnis hab. ;D

Btw. nicht vergessen, mit den OptiScaler Nightly-Builds den Log-Pfad in der Config leer zu lassen. Schaltet sonst bei jedem Start wieder Debug-Logging ein.

dargo
2025-03-15, 14:17:10
https://lanoc.org/review/video-cards/acer-rx-9070-nitro-oc?showall=1

ist aber die non-XT
Boah... selten so einen schlechten Test gesehen. Wo zum Teufel sind da Angaben zu RPM vom Lüfter @Stock Settings und die dabei entstandenen Hotspot Temperaturen?

Lurtz
2025-03-15, 16:18:28
Crashes nach Standby auch weg. Kann mir das nur so erklären, dass Wattman trotz Reset da Mist gebaut hat.

Spiel schon auf borderless gestellt?
MPO macht noch etwas komische Sachen mit dem Treiber, die Einblendung des Windows Lautstärke-OSDs macht etwa seltsame Einbrüche, insbesondere mit Treiber-Vsync.
Wobei es mir auch manchmal passiert, dass ich OptiScaler ggf. unter verschiedenen Dateinamen mehrfach im Verzeichnis hab. ;D

Btw. nicht vergessen, mit den OptiScaler Nightly-Builds den Log-Pfad in der Config leer zu lassen. Schaltet sonst bei jedem Start wieder Debug-Logging ein.
Ist Fullscreen (mit Fullscreen Optimizations) nicht mittlerweile fast dasselbe wie Borderless? Ich blicke da nicht mehr durch.

herb
2025-03-15, 16:32:02
Ist Fullscreen nicht mittlerweile fast dasselbe wie Borderless? Ich blicke da nicht mehr durch.
Im Boderless Mode hast Du mehr Latenz, da alles durch den Desktop Compositor geschleust werden muss. Der Fullscreen Mode umgeht den DC.
Im Fullscreen Mode gibt es zusätzliche Anzeigefeatures (zB >8bit SDR und HDR Ausgabe)