PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 9070 & 9070 XT Review-Thread


Seiten : 1 2 3 4 5 6 7 8 [9]

RoughNeck
2025-08-16, 12:23:27
Das war eine Woche voller Ereignisse aber jetzt ist der Besitzer happy.
Montag kam die 9070 XT Mercury in weiß, also Rechner komplett, Win 11 installiert und zack, nach der Treiber Installation 25.8.1 oder auch ältere kein Bild. Alle Ports durchprobiert, anderes Kabel und anderer Monitor, nichts half. Ohne Treiber Bild, mit Treiber kein Bild mehr.

Also Karte retourniert, mit dem Besitzer Rücksprache gehalten und eine Hellhound Spectral White geordert und siehe da, läuft alles wie es soll. Also Rechner auf Stabilität getestet, CPU undervoltet, GPU ebenfalls und heute nahm der glückliche Besitzer seinen Rechner mit.

Kann leider nichts zur XFX Karte beitragen, die Hellhound ist allerdings gut, Lüfter sind laufruhig (außer zwischen 1180 - 1230, da hat der mittlere Lüfter eine schleifen) und das Spulenfiepen ist eher so ein rasseln was unter 150 FPS kaum wahrnehmbar ist.
Karte ist allerdings nicht durch optimiert, hab -30mv und 80% PT eingestellt, läuft perfekt und für weiteres optimieren hatte ich zu wenig Zeit da Arbeit und Familie es aktuell nicht zulassen.
Die Battlefield 6 Beta lief mit den Einstellungen ohne Probleme, auch die ganzen 3D Marks liefen im Loop durch.

GPU hatte 62°, HotSpot lag bei 76 - 79° und der VRAM lag bei 79° (Samsung Chips) bei 1100 - 1150 RPM, Raumtemperatur lag dabei zwischen 25 - 27°, beim Besitzer ist das System sicher kühler da er eine Klima hat.
Würde ich auch gern, allerdings wird meine Frau sehr schnell krank von den Klima Anlagen, daher schwitze ich halt, während meine Frau in der Nacht mit Decke schläft da ihr kalt ist (Frauen halt) :biggrin:

dargo
2025-08-16, 12:29:45
Mit der Hellhound XT hast du die richtige Wahl für den Kollegen getroffen. :wink:


GPU hatte 62°, HotSpot lag bei 76 - 79° und der VRAM lag bei 79° (Samsung Chips) bei 1100 - 1150 RPM, Raumtemperatur lag dabei zwischen 25 - 27°, beim Besitzer ist das System sicher kühler da er eine Klima hat.
Würde ich auch gern, allerdings wird meine Frau sehr schnell krank von den Klima Anlagen, daher schwitze ich halt, während meine Frau in der Nacht mit Decke schläft da ihr kalt ist (Frauen halt) :biggrin:
Was tut man nicht alles für die Frauen. :biggrin:

RoughNeck
2025-08-16, 13:06:04
Er ist happy, das ist das was zählt.
Hat 1 Stunde bei mir die BF6 Beta gezockt, hat extrem gestaunt wegen der Grafik und wie leise der Rechner ist im Vergleich zu seinen alten und darauf kommt es an. Der Mercury war natürlich ärgerlich da DoA aber passiert halt. Ist Massenproduktion und da fällt ein kleiner Teil durchs Raster.

Ja, meistens tun wir zu wenig für die Frauen (kommt natürlich von den Frauen) wobei ich da die Ausnahme von der Regel erwischt habe.

Hakim
2025-08-16, 13:12:36
War das eine neue oder gebrauchte Mercury?

RoughNeck
2025-08-16, 13:23:37
War neu, zumindest hätte ich keine Gebrauchsspuren gesehen.
War halt einfach Pech, der Händler hatte nur leider keine mehr in weiß, also wurde es die Hellhound in weiß.

Hakim
2025-08-16, 13:25:09
Ok ja kann vorkommen und sehr ärgerlich. Ist halt die Frage ob er es dann als refurbished wieder verkauft :)

dargo
2025-08-16, 13:39:32
Er ist happy, das ist das was zählt.

Jau.. hast du eigentlich die 80% PT beim ersten oder zweiten (Silent) Bios genommen? Beim Silent Bios wären es nämlich max. 243W anstatt 254W.

nairune
2025-08-16, 14:47:07
Sei dir nur bewusst, dass deine Einstellungen für PT und UV weg sind, sobald er ein Treiberupdate installiert.
Also wenn er selber das nie gesehen hat / weiß, wie man das macht, wird das nicht lang halten.

Hakim
2025-08-16, 15:15:00
Gibt es einen Weg das es iwie behalten wird? Also wenn es bei einem Drittanbieter wie afterburner geht, schon seltsam

dargo
2025-08-16, 15:51:10
Sei dir nur bewusst, dass deine Einstellungen für PT und UV weg sind, sobald er ein Treiberupdate installiert.
Also wenn er selber das nie gesehen hat / weiß, wie man das macht, wird das nicht lang halten.
Wo ist das Problem? Ich gehe jetzt mal davon aus RoughNeck hat ein entsprechendes Profil abgespeichert welches der Kollege beim neuen Treiber nur laden muss.

Hacki_P3D
2025-08-16, 15:51:17
@Hakim
Klar, Du kannst es direkt in der Einstellungsmaske sichern/exportieren und auch laden/importieren.

Hakim
2025-08-16, 15:52:38
ja gut dann ist es ja kein wirkliches Problem, sollte man halt nicht vergessen beim Updaten.

RoughNeck
2025-08-16, 18:06:56
Jau.. hast du eigentlich die 80% PT beim ersten oder zweiten (Silent) Bios genommen? Beim Silent Bios wären es nämlich max. 243W anstatt 254W.

Silent BIOS, hab da ehrlich nicht drüber nachgedacht dass das Silent BIOS etwas weniger anlegt.
Und ja, das Profil ist am Desktop abgespeichert falls es durch ein Treiberupdate weg sein sollte.

dargo
2025-08-17, 09:53:36
Sagt mal... welchen Lack haben die Entscheidungsträger bei AMD eigentlich gesoffen als sie den Betriebspunkt der RX 9070XT final bestimmt haben? Mir wird das hier erst so richtig klar. :freak:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13798838&postcount=567

Ich meine AMD müsste jetzt natürlich nicht die XT bei max. 213W laufen lassen. Aber ganz ehrlich... die hätten die RX 9070XT locker mit den ursprünglich spekulierten 265W releasen sollen bei ca. max. 2,8Ghz Boost und nicht 3,45Ghz. Dieses auf Teufel komm raus maximale Boosten lassen weil der Chip bis zu 3.450Mhz verträgt ist sowas von bescheuert auf Kosten der Perf/W, dass es nicht mehr feierlich ist. Hatte AMD echt Angst, dass eine RX 9070XT dann vs. RTX 5070TI im Schnitt der getesteten Spiele um 4% langsamer wäre als um 2%? Ich verstehe diese Entscheidungsträger einfach nicht.

dildo4u
2025-08-17, 09:58:28
Naja das macht schon Sinn das man zumindest vergleichbare Raster Performance hat alles andere ist schlechter.

Mit der 5070 TI hast du DLSS4 in Tonnen mher Games vs FSR4,besseres RT und weniger Verbrauch.

dargo
2025-08-17, 10:01:13
Hä? Was möchtest du mir damit sagen, ich verstehe nicht worauf du hinaus willst. Oder meinst du ernsthaft mit 96% 5070TI Peformance ist plötzlich nichts mehr gut spielbar während 98% 5070TI Performance alles wunderbar spielbar ist? :uconf3:


Mit der 5070 TI hast du DLSS4 in Tonnen mher Games vs FSR4...
Das kannst du vielleicht dem 08/15 Hans so verkaufen der sowieso nicht weiß was Upscaling ist. Aber nicht jemandem der den Optiscaler verwendet. Jedes Game welches DLSS verwendet kann auch FSR4 verwenden.

Edit:
Bezüglich Verbrauch kann ich das auch nicht so stehen lassen. Eine 5070TI verbraucht minimal mehr als eine 9070XT. Man muss sie nur halt mit entsprechenden Gaminglast fordern. Bei dem Design von Blackwell ist schon eine gewisse RT-Last dafür notwendig damit die Dinger nicht im Taktlimit landen.
https://www.computerbase.de/artikel/grafikkarten/amd-radeon-rx-9070-xt-rx-9070-test.91578/seite-9#abschnitt_leistungsaufnahme_gemessen_spiele_youtube_desktop

Bei der RX 9070XT kritisiere ich hauptsächlich den max. Boost von 3.450Mhz den AMD da gefällt hat. Damit verschwendet AMD unheimlich viel Energie bei Teillast bzw. Gaminglast die weniger heizt. Ca. 2,8Ghz max. Boost würden die Karte massiv effizienter bei Teillast machen.

OCmylife
2025-08-17, 10:28:31
Sagt mal... welchen Lack haben die Entscheidungsträger bei AMD eigentlich gesoffen als sie den Betriebspunkt der RX 9070XT final bestimmt haben? Mir wird das hier erst so richtig klar. :freak:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13798838&postcount=567

Ich meine AMD müsste jetzt natürlich nicht die XT bei max. 213W laufen lassen. Aber ganz ehrlich... die hätten die RX 9070XT locker mit den ursprünglich spekulierten 265W releasen sollen bei ca. max. 2,8Ghz Boost und nicht 3,45Ghz. Dieses auf Teufel komm raus maximale Boosten lassen weil der Chip bis zu 3.450Mhz verträgt ist sowas von bescheuert auf Kosten der Perf/W, dass es nicht mehr feierlich ist. Hatte AMD echt Angst, dass eine RX 9070XT dann vs. RTX 5070TI im Schnitt der getesteten Spiele um 4% langsamer wäre als um 2%? Ich verstehe diese Entscheidungsträger einfach nicht.

Nur zu meinem Verständnis:
Du hast dort aber lediglich das Powertarget reduziert und nichts an der Spannung verändert? Andernfalls wäre mir die Entscheidung bezüglich des Betriebspunkts ziemlich klar. Du hast aufgrund der unterschiedlichen Siliziumgüte ja immer eine gewisse Streuung und auch wenn dein Chip den Takt bei einer gewissen Spannung stabil in absolut jedem Spiel schafft (was Du sicherlich auch noch nicht testen konntest), heißt das noch lange nicht, dass auch die anderen 99% der Chips den Takt mit der niedrigen Spannung erreichen. Und dann sind es nicht nur 2-4%, sondern sicherlich auch mehr und man fällt bei den fps weiter zurück, als Du es gerade versuchst abzubilden.

Falls Du die Spannung nicht angefasst hast, sondern lediglich das PT reduziert hast, habe ich nichts gesagt. :biggrin:

dargo
2025-08-17, 10:37:32
@OCmylife

Ich musste in dem Beispiel ein Voltageoffset anlegen damit ich fast an die 3,15Ghz rankomme weil mich EA in die BF6 Beta nicht reinlässt, hatte mich darüber im BF6 Thread schon genug dazu ausgekotzt. Sprich... ich hatte zwar eine veränderte V/F-Kurve, aber das Voltageoffset galt sowohl für die 317W als auch für die 213W. Ich kann das gleich aber auch gerne ohne Voltageoffset abbilden ob sich da deutlich mehr in den fps tut.

robbitop
2025-08-17, 10:43:07
Oder man könnte eine separate low Power SKU machen. So wie die Nano damals (oder bei Nvidia im Laptop „maxq“). Ich vermute aber, dass das bei GPUs nicht sonderlich nachgefragt wird.

dargo
2025-08-17, 10:49:26
Kannst vergessen... wie du schon richtig sagst kaum jemand ist bereit den gleichen Preis zu zahlen wenn die Grafikkarte deutlich sparsamer ist, dafür aber minimal langsamer. Die Masse kriegt nur einen steifen wenn die fps Balken maximal lang sind, koste es was es wolle.

OCmylife
2025-08-17, 10:54:41
@OCmylife

Ich musste in dem Beispiel ein Voltageoffset anlegen damit ich fast an die 3,15Ghz rankomme weil mich EA in die BF6 Beta nicht reinlässt, hatte mich darüber im BF6 Thread schon genug dazu ausgekotzt. Sprich... ich hatte zwar eine veränderte V/F-Kurve, aber das Voltageoffset galt sowohl für die 317W als auch für die 213W. Ich kann das gleich aber auch gerne ohne Voltageoffset abbilden ob sich da deutlich mehr in den fps tut.

Das wäre interessant. Vielen Dank!

Es ist dann immer noch schwierig über alle GPUs herzuziehen, aber es gibt zumindest ein deutlich klareres Bild, als wenn man eine manuell angepasste Karte mit allen anderen XTs vergleicht.
Dass häufig die Brechstange ausgepackt wird, nur um die Performance der Konkurrenz zu erreichen, da bin ich ganz bei Dir.

dargo
2025-08-17, 11:15:11
Ich habe mich jetzt auf ein 304W PT beschränkt da das die Referenzvorgabe von AMD ist, Stock Spannungskurve diesmal also.

Stock 304W
https://i.postimg.cc/xk9573XV/tlou-ii-2025-08-17-11-00-03-562.jpg (https://postimg.cc/xk9573XV)

PT max. 264W (Mein Favorit als Powerlimit für N48 XT Referenz)
https://i.postimg.cc/7fVf91r2/tlou-ii-2025-08-17-11-00-59-554.jpg (https://postimg.cc/7fVf91r2)

PT max. 213W
https://i.postimg.cc/KkPZzFZM/tlou-ii-2025-08-17-11-01-36-522.jpg (https://postimg.cc/KkPZzFZM)

PT max. 304W, Taktoffset -500Mz, ergo max. Boost 2950Mhz
https://i.postimg.cc/3ygNczkn/tlou-ii-2025-08-17-11-02-56-152.jpg (https://postimg.cc/3ygNczkn)

Ich hätte dem Chip einen max. Boost von 2,8Ghz verpasst, damit würde der hier ohne Taktoffset bei ca. 2720Mhz liegen. Leider habe ich es vergessen diesen Takt mit noch weniger Powerlimit als 264W abzubilden. Ich schätze grob die Karte würde hier bei 230-240W liegen.

Stock ist hier also 2% schneller als max. Boost von 2950Mhz bei 16,5% mehr Verbrauch. Die max. 2950Mhz Boost sind halt immer noch zu hoch. Vergleich zu den max. 213W ergibt 6,6% mehr Performance bei 42,7% mehr Verbrauch. Letzteres ist richtig verrückt dann, die oberen Boosttaktraten mit den dann entsprechend höheren Spannungen saufen einfach extrem im Verhältnis. Ich hätte bei dem Vergleich die Spannungen abbilden sollen. Verdammt... auch vergessen. :usad:

OCmylife
2025-08-17, 11:32:48
Danke Dargo, das ist echt verrückt. Meine 4080 Super ist ja auch ziemlich effizient und es gibt durchaus auch mal den Usecase, wo ich mit 150Mhz(2670 auf 2820) mehr von 58 auf 60 fps springe und dadurch etwas Effizienz für ein ruhigeres Bild aufgebe, aber niemand wird es merken, ob da jetzt 96,8 oder 99 fps laufen.

dargo
2025-08-17, 11:44:35
Ich werde später noch ein anderes Spiel abbilden um zu sehen ob bei einer höheren Heizlast der Performanceverlust vs. Stock sich deutlich stärker bemerkbar macht als hier. TLOU 2 hat eine relativ niedrige Heizlast.

Edit:
Habe jetzt mal GoW: R dafür genommen. Das heizt schon ganz gut für Raster, erreiche hier bei 304W und 4k + FSR 4 Quality 2,8xGhz. Diesmal auch richtig mit Spannungen. Die fps schwanken in der Szene etwas im Bereich von ~2fps, ich habe versucht immer möglichst den höchsten Wert zu erwischen.

Stock 304W
https://i.postimg.cc/MXThGVzY/Go-WR-2025-08-17-11-56-50-645.jpg (https://postimg.cc/MXThGVzY)

PT max. 264W
https://i.postimg.cc/bZXML5k6/Go-WR-2025-08-17-11-57-38-610.jpg (https://postimg.cc/bZXML5k6)

PT max. 213W
https://i.postimg.cc/BPLYB569/Go-WR-2025-08-17-11-58-27-249.jpg (https://postimg.cc/BPLYB569)

PT max. 304W, Taktoffset -500Mz, ergo max. Boost 2950Mhz
https://i.postimg.cc/2qk0KN6x/Go-WR-2025-08-17-11-59-24-736.jpg (https://postimg.cc/2qk0KN6x)

304W vs. 264W bedeuten hier ebenfalls +2% Performance bei 16,5% mehr Verbrauch. 304W vs. 213W bedeuten hier +8,25% Performance bei 42,7% mehr Verbrauch. Also massive Abweichung bei einer höheren Heizlast sehe ich jetzt hier nicht unbedingt. Zumal die Games auch etwas unterschiedlich auf die Bandbreite reagieren könnten. Zumindest bis 264W ist alles identisch. Hier sieht man auch sehr schön, dass bei einer höheren Gaming-/ bzw. Heizlast der max. Taktoffset von -500Mhz keine Auswirkung mehr zeigen kann sofern das Powerlimit von 304W nicht erhöht wird.

OCmylife
2025-08-17, 14:04:44
Mir persönlich gefällt hier die Performance/Leistungsaufnahme von dem 264 Watt Setting ebenfalls am Besten.

Ragnarok muss ich mir in naher Zukunft auch mal vornehmen. Den direkten Vorgänger fand ich spitze! :)

dargo
2025-08-17, 19:15:54
Habe mal den alten Schinken Death Stranding angeschmissen. Der Verbrauch in den Cutszenen dank 60fps Limit in diesen ist zu köstlich. X-D

4k + FSR 4 Quality (HDR)
https://i.postimg.cc/wRxFZsVz/DEATH-STRANDING-2025-08-17-19-12.jpg (https://postimg.cc/wRxFZsVz) https://i.postimg.cc/XZVR4Xx2/DEATH-STRANDING-2025-08-17-19-32.jpg (https://postimg.cc/XZVR4Xx2) https://i.postimg.cc/878FKgwk/DEATH-STRANDING-2025-08-17-19-42.jpg (https://postimg.cc/878FKgwk)

In Farbe für alle aus der Basis. ;)
https://i.postimg.cc/HrG3Cxdf/DEATH-STRANDING-2025-08-17-21-02.jpg (https://postimg.cc/HrG3Cxdf)

Freestaler
2025-08-17, 22:58:00
Wie seht ihr das, 9070xt Asrock Taichi OC oder Powercolor Red Devil? Oder gibts noch bessere? mainfokus xt möglichst leise ab Werk.

Hakim
2025-08-17, 23:47:48
Beides vermutlich sehr nahe beieinander und sehr gut, mach das eher am Preis oder optisch aus was dir eher zusagt. Ich persönlich würde vermutlich die Red Devil nehmen

Die Nitro+ könnte dir auch gefallen

dargo
2025-08-18, 07:28:03
Wie seht ihr das, 9070xt Asrock Taichi OC oder Powercolor Red Devil? Oder gibts noch bessere? mainfokus xt möglichst leise ab Werk.
Beides zu teuer und lohnt imo nicht. Bei welcher Power ist eigendlich die wichtigste Frage erstmal? Weil Power bestimmt zum wesentlichen Teil die Lautstärke. Soll heißen reichen dir als Beispiel max. 264W ist die Auswahl größer und es wird wesentlich günstiger.

btw.
Wenn du bereit bist die Power (ist nur ein Klick im Treiber) auf 250-264W zu reduzieren würde ich dir sogar die XFX Swift XT aktuell empfehlen weil der Preis unschlagbar ist, 597,65€ mit Shoop.
https://www.galaxus.de/de/s1/product/xfx-swift-radeon-rx-9070-xt-triple-fan-gaming-edition-16-gb-grafikkarte-55651815?utm_campaign=preisvergleich&utm_source=geizhals&utm_medium=cpc&utm_content=2705624&supplier=2705624

Bedenke aber bitte, dass die Karte schon recht dick ist. Und hier bitte auch eine custom Lüftersteuerung mit max. 1070RPM verwenden. Ist auch ein Kinderspiel das im Treiber einzustellen und sich abzuspeichern für die zukünftigen Treiber.

PS: bei der Karte hast du auch gute Chance Samsung GDDR6 zu bekommen. Ich finde den heißen Hynix schwierig wenn der thermisch zuerst limitiert. Das gibt weniger Spielraum bei den Lüfterdrehzahlen nach unten.

Edit:
Nur mal so ein Gedankenanstoß... wenn du die Power bei einer XT auf 264W reduzierst verlierst du nur lächerliche 2% Leistung vs. 304W, bei 250W gehe ich nicht von mehr als 2,5% aus. Und das hat nichts mit Undervolting zu tun. Du bewegst dich mit dem anderen Powerlimit innerhalb der Stock V/F-Kurve. Ist einfach nur ein effizienterer Betriebspunkt. Sehr vergleichbar mit dem Ecomodus bei einer Ryzen-CPU. Wegen 2% Leistung also weit über 100€ mehr ausgeben? Vergleiche hier den regulären Preis ohne Cashback. Diese Entscheidung überlasse ich jedem selbst. ;)

Lurtz
2025-08-18, 08:48:23
Nur mal so ein Gedankenanstoß... wenn du die Power bei einer XT auf 264W reduzierst verlierst du nur lächerliche 2% Leistung vs. 304W, bei 250W gehe ich nicht von mehr als 2,5% aus. Und das hat nichts mit Undervolting zu tun. Du bewegst dich mit dem anderen Powerlimit innerhalb der Stock V/F-Kurve. Ist einfach nur ein effizienterer Betriebspunkt. Sehr vergleichbar mit dem Ecomodus bei einer Ryzen-CPU. Wegen 2% Leistung also weit über 100€ mehr ausgeben? Vergleiche hier den regulären Preis ohne Cashback. Diese Entscheidung überlasse ich jedem selbst. ;)
Wie wäre die Performance der 9070 im Vergleich? Vermutlich ist die XT dann immer noch minimal schneller und die 9070 primär N48 mit effizienterem Betriebspunkt?

Ist dir jetzt egal weil du die XT so günstig bekommen hast?

Aber ja, dass die XT ab etwa 250 Watt langsam völlig ineffizient ist, das bekommt man eigentlich sehr schnell raus wenn man mal die Regler bedient...

dargo
2025-08-18, 08:53:17
Wie wäre die Performance der 9070 im Vergleich? Vermutlich ist die XT dann immer noch minimal schneller und die 9070 primär N48 mit effizienterem Betriebspunkt?

Beide @250W trennen rund 4% wenn ich das noch richtig im Kopf habe. Lass es im worst case 5% sein.


Ist dir jetzt egal weil du die XT so günstig bekommen hast?

Ich habe die Hellhound XT für 583,xx€ bekommen, von daher wäre es Quatsch ne non XT zu nehmen. Zumal mir ein sehr guter Kühler wichtig ist, die non XTs sind beim Kühler wieder etwas schwächer dimensioniert. Bei der non XT nehme ich natürlich die 250W (also OC @Wattage) als Referenzpunkt für die Kühlung.

btw.
Meine XT habe ich mittlerweile so konfiguriert, dass ich max. 261W zulasse und mit -500Mhz oben den extrem hohen, völlig ineffizienten Boost mit max. 2950Mhz limitiere. So läuft die Karte bei hohen Heizlast mit max. 261W und bei geringeren bis mittleren Heizlast oft auch mit weniger Wattage dank Taktdeckel bei max. ca. 2,88Ghz in Games. Zum Bleistift sowas hier.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13799146&postcount=119

Dank -50mV + Fast Timings ist die Karte so auch exakt gleich schnell wie Stock @304W.

skar
2025-08-18, 09:34:48
Die Top Modelle lohnen sich meiner Meinung nach nur wenn man vorhast ans Limit zu gehen und du einen Wasserblock benutzt.

ich hatte die Red Devil 4 Wochen mit dem Luftkühler im Betrieb, der Luftkühler war absolut am Limit mit dem Standard OC Bios bei 330W.

Ich würde da eher die Hellhound empfehlen.

Unter Wasser allerdings schlägt sie sich sehr gut, bei mir mit 10% Powerlimit+ also 365W und -70 mV bei stabilen 3,3 GHZ.

dargo
2025-08-18, 09:46:31
Die Top Modelle lohnen sich meiner Meinung nach nur wenn man vorhat ans Limit zu gehen und du einen Wasserblock benutzt.

Genau... so würde ich das auch sehen. Wer auf hohe Effizienz scheißt und zusätzlich Wakü hat für den könnten diese teureren OC-Modelle interessant sein. :)

Freestaler
2025-08-18, 17:08:50
Ich scheiss auf 100€ aber nicht auf die lautstärke. Und nach Jahren mit ner msi 580 die ich nach jedem Treiberupdate wieder leise Stellen musste, mach ich mir leben einfach. Vielleicht läuft sie primär mit 260w target, vielleicht aber auch voll gas. In dem Kontext ist mir 100er Wert. Feedback von skar zur Devil enttäuscht mich. Wird dann wohl die asrock oc.

dargo
2025-08-18, 17:13:17
Und wie kommst du jetzt auf die Idee die Asrock würde deutlich besser bei hohen 330W oder gar den von skar genannten 365W (mit 110% PT wahrscheinlich) abschneiden? Dein Vergleich zur einer RX580 ist auch putzig. Konntest du nicht noch ein paar weitere Jahre in die Geschichte gehen? :tongue: Wenn mich nicht alles täuscht konnte man bei Polaris keine Profile wie heute ablegen. Oder täusche ich mich gerade in diesem Punkt? Ist schon zu lange her. In 8 Jahren ist jedenfalls eine Menge passiert bei den Treibern im Bereich Optionsvielfalt.

Edit:
Wobei... wenn ich das hier so sehe scheint der Kühler ganz gut zu performen.
https://www.techpowerup.com/review/asrock-radeon-rx-9070-xt-taichi-oc/39.html

Bis auf den Hynix natürlich der wieder ziemlich heiß wird. Vielleicht hast du Glück und erwischst eine Taichi mit Samsung. Versuche dein Glück dann mit der Taichi wenn dich der Aufpreis nicht stört. :)

PS: bin mir aber nicht sicher ob Techpowerup im offenen Aufbau oder Gehäuse testet.

Freestaler
2025-08-18, 19:49:28
Seit der 580 hab ich nur noch outofthebox leise Karten ;-). Aber genug reset mit vega und 6900. Will da wirklich einfach primäre quietbios und ruhe. Ich schau nun noch ob neues Motorrad oder Graka. Beides macht zeitgleich kein sinn. Wird ja nur günstiger ;-)
Asrock Taichi OS schneidet auch sonst leise ab. Trotzdem wegen skar reddevil noch bissel neben dem Platz. Die gilt doch auch in den Tests als leise.

dargo
2025-08-18, 19:50:48
Ja was denn nun? Ich dachte der Preis spielt keine Rolle. ;) Bezüglich leise Karten... haha. Was ich schon alles von Menschen als leise bezeichnet gesehen habe da kann ich teilweise nur mit dem Kopf schütteln.

Freestaler
2025-08-18, 19:53:11
Jein, aber meine allerbeste Frau. Nur etwas pro Monat. ;-)

Scherz, der ist das egal solange ich "auch" Zeit für sie und die Kidz habe.

dargo
2025-08-18, 19:55:03
Uff... Motorrad und PC mit neuer Graka? Das wird schwer mit Zeit für Frau und Kinder. :D

gedi
2025-08-18, 20:17:52
@OCmylife

Ich musste in dem Beispiel ein Voltageoffset anlegen damit ich fast an die 3,15Ghz rankomme weil mich EA in die BF6 Beta nicht reinlässt, hatte mich darüber im BF6 Thread schon genug dazu ausgekotzt. Sprich... ich hatte zwar eine veränderte V/F-Kurve, aber das Voltageoffset galt sowohl für die 317W als auch für die 213W. Ich kann das gleich aber auch gerne ohne Voltageoffset abbilden ob sich da deutlich mehr in den fps tut.

Dein Offset funktioniert sowohl als auch? Was hast du gegeben - -0.06v?

-0.15v geht hier immer (!) bei 374w, bei 238w ist dann allerdings an Stabilität nicht zu denken. BTW. macht meine bei ~3.6g die Schere. Getestet in HL2 ...

RoughNeck
2025-08-18, 20:20:55
So ist es halt wenn man Beruf, Familie und eigene Interessen / Hobbys unter einen Hut bringen will / muss.
Solange man einen Partner hat der Verständnis hat geht es, meine Frau & Ich geben uns regelmäßig Zeit für uns selbst, um abschalten zu können

Der_Korken
2025-08-18, 21:03:08
-0.15v geht hier immer (!) bei 374w, bei 238w ist dann allerdings an Stabilität nicht zu denken. BTW. macht meine bei ~3.6g die Schere. Getestet in HL2 ...

Das klingt wie das Phänomen, das dargo bei der Swift hatte. Sobald der Verbrauch über 300W geht, wird massiv mehr Spannung auf den gleichen Takt geballert und die Karte somit deutlich ineffizienter. Das ging so weit, dass die Karte mit gleichem UV-Offset bei 300W weniger Takt erreicht hat als mit 270W. Wenn deine Karte auch so einen komischen Knick hat, ist es wenig überraschend, dass mit 374W auch -150mV stabil laufen. Die Frage ist, wieviel Mehrleistung da überhaupt noch bei rumkommt ...

skar
2025-08-19, 09:45:54
Hi,

ich kann hier nur meine Erfahrung mit der Red Devil schildern, vielleicht habe ich auch nur ein schlechtes Model erwischt.

Die Red Devil hatte ich bestellt da eh ein Wasserblock draufkommt und ich keinen 12VHPR Stecker im System haben möchte, sonst wäre es die Taichi geworden.

Out of the Box sind die Temperaturen mit dem OC Bios direkt an die Grenze gegangen, es sah von der Telemetrie schon so aus als ob die Karte direkt thermisch bedingt drosselt, Hotspot 92°/Speicher 90°.
Da mein O11 EVO XL Gehäuse und Wakü Buld für den Semi passiven Betrieb optimiert ist, hatte ich es komplett offen gelassen so dass die Karte praktisch an der frischen Luft war.

Ich hatte nach zwei Tagen direkt die Wärmeleitpads gegen TG Minus pad pro getauscht, und Krynoaut extrem auf die gpu geklatscht und kurz über flüssig Metall nachgedacht^^.
Das hat bei dem Luftkühler etwas Abhilfe geschaffen, grob 4° beim Speicher und hotspot, ist aber nicht im Sinne des Erfinders und der Garantie^^
Grundsätzlich war mein Eindruck das der Luftkühler Probleme hatte die Hitze adäquat abzuführen.

Die Temperaturen unter Wasser geben da etwas Aufschluss da sie jetzt bei 42° Chip/ 48° Hotspot(Mit Kryo Sheet bei 365W/+10%PT) / 45° Speicher(2700 MHZ fast Timing), bei 37° Wassertemp unter Last im Sommer(Wasser Temp Delta zur Raumtemperatur sind 13° bei mir unter Volllast).
Ich hatte noch nie so niedrige Temperaturen bei einer Grafikkarte unter Wasser, der Luftkühler meiner Red Devil hatte einfach Probleme die Hitze sinnvoll an die Umgebung abzuführen.

Von den Testberichten und Teardowns her scheint mit die Tachi das bessere Produkt zu sein, bis auf den Stromstecker^^.

Wie gesagt ist jetzt meine Erfahrung mit meinen speziellen Rahmenbedingung im Gehäuse, bei einem Gehäuse Build mit einem vernünftigen Airflow kann das ganze schon deutlich anders aussehen.

Hakim
2025-08-19, 09:53:23
Schon erstaunlich wie unterschiedlich die Erfahrungen bei den 9070XTs mit den selben Karten gemacht werden. Hat schon was vom Glücksspiel irgendwie

skar
2025-08-19, 10:03:58
Wohl war,
bei meiner Red Devil war im übrigen Wäremleitpaste statt dem auf der Hompage beworbenen PTM7950 Phasenpad verbaut.
Könnte ein Rückläufer gewesen sein von den Kollegen die fröhlich zig Karten durchtesten^^

nairune
2025-08-19, 10:04:42
Hat sie denn auch adäquat aufgedreht? ~90°C können auch einfach als Temperaturziel eingestellt sein, das sagt dann nicht viel über den Kühler aus. Also haben die Lüfter richtig Gas gegeben?

skar
2025-08-19, 10:07:51
Jup, die Lüfter liefen korrekt, hatte auch diverse Einstellungen mit höheren Drehzahlen selber ausprobiert, das hatte zwar Abhilfe gebracht, aber auch unerträgliche Lautstärke^^.
Gott sei Dank kam der Wasserblock nach zwei Monaten endlich in DE an.

nairune
2025-08-19, 10:11:25
Was heißt denn "korrekt"?
War sie leise oder laut mit den 90°C?

skar
2025-08-19, 10:22:53
Damit meine ich unter 60° Lüfter aus, und unter Last Temperaturgesteuert bis auf 1800 rpm hoch.

Zu laut und leise mag ich nix sagen, da ich seit Jahren alle Komonenten in einem Custom Lopp habe, und die 140mm Lüfter halt mit max 800 rpm drehen und bei geschlossenem Gehäuse ist das System halt lautlos.
Da ich diese Stille gewohnt bin empfinde ich hochdrehenden Lüfter Grundsätzlich als Laut, in diesem Fall hatte ich das Gehäuse ja noch zusätzlich offen gelassen.

nairune
2025-08-19, 10:36:03
Also ist sie laut, 1800 RPM sind extrem hoch. Dann klingt das wie da war was nicht in Ordnung, bei CB läuft sie ja mit unter 1000 RPM.
"Diese Stille" kann man übrigens auch mit Luftkühlern gewohnt sein ;)
140mm mit 800 rpm sind m.E. auch schon grenzwertig zu leise, je nach Lüfter

dargo
2025-08-19, 15:23:33
140mm mit 800 rpm sind m.E. auch schon grenzwertig zu leise, je nach Lüfter
Das würde ich so unterschreiben. Mein 140mm be quiet! Silent Wings 3 ist zb. auf max. 700RPM bei Last eingestellt, Idle dann 300RPM. Der ist allerdings im Gehäusedeckel montiert. Wäre der auf dem CPU-Kühler bsw. drauf gingen für mich womöglich auch 800RPM oder 750RPM. Die Geräusche werden in dem Fall dann etwas besser vom Gehäuse geschluckt was etwas mehr Drehzahl "erlaubt".

dargo
2025-08-20, 08:12:26
Hier mal ein kleines Video von mir aus DS wie sich das mit der Power verhält wenn die GPU in ein Taktlimit läuft, hier oft höchstwahrscheinlich auch wegen CPU-Limit da der Takt erheblich unter ~2,88Ghz runter geht. So gefällt mir N48 extrem gut. :up: Mit Videoaufnahme @ReLive liegt die Power ca. 8-10W höher als tatsächlich.

4k + FSR 4 Quality (-50mV, -500Mhz, max. 261W), Raum = 24°C

2B8OABw-l7U

Man stelle sich vor AMD würde -700-800Mhz im Treiber beim Taktoffset erlauben. :eek: Wir sollten vielleicht mal eine Petition bilden oder so. ;)

Freestaler
2025-08-20, 08:25:11
Skar, wenn deine auf 1800 RPM hoch ging, dann war doch da was defekt oder wie von Dir erwähnt falsch bzw. manipuliert (kein PTM). Hat sonst noch wer ne RedDevil? Bei der Asrock gefällt mir der neue Stecker noch nicht so recht (biegungsradius im Case wird knapp).

skar
2025-08-20, 08:53:40
Ja, der Verdacht liegt nahe,

und und den hatte/habe ich auch als ich gesehen habe das das PTM fehlt.
da waren allerdings die Garantie Siegel bereits Fratze^^.

da ich bei einem Freund die Woche seine PC auf Custom Loop PC umgebaut habe, kann ich bei der Hellhound XT die er sich gekauft hat das Phasenpad bestätigen.

mit dem Wasserblock drauf ist soweit alles in Ordnung und die Karte läuft soweit stabil mit OC und UV.

dargo
2025-08-20, 09:39:58
@Freestaler

Vielleicht hilft dir das hier etwas, leider aber noch mit Hynix damals. Angeblich sollen die 1.300RPM immer noch brutal leise sein.
https://youtu.be/0pT3ayKxiT0?si=ETpdDhIQS94nuyJ6&t=208

PS: bei den 1.300RPM höre ich aber eine unschöne Frequenz raus, diese Art wieder von Wooohooo. :D Ob das dann immer noch aus einem geschlossenen Gehäuse hörbar ist steht in den Sternen.

Edit:
Wobei diese unschöne Frequenz auch nach dem Stresstest zu hören ist wo nur noch seine Gehäuselüfter zu hören sind. Womöglich kommt das Geräusch von seinen Gehäuselüftern also. Allerdings ist es dann wieder komisch, dass dieses Geräusch nicht bei den 9xxRPM zu hören ist. Aber wer weiß wie seine Lüftersteuerung konfiguriert ist. Möglicherweise laufen die Gehäuselüfter mit dem Silentbios etwas langsamer wodurch diese eine, auffällige Frequenz wieder verschwindet.

Oder das hier.
https://youtu.be/tZJq0dlvQaM?si=jx320_z__aCDTyyg&t=653

Witzig finde ich hier die kleinen Unterschiede zwischen Red Devil weiß und schwarz. Wird wohl Fertigungstoleranz sein. Bedenke hier aber das ist ein offener Aufbau, ergo ca. 5-7°C Puffer für ein geschlossenes Gehäuse mitdenken.

Freestaler
2025-08-20, 10:25:03
Ich bin Team 300-500 RPM Idle und unter last darf ein leiser 140 auch mal Richtung 800, max 900 gehen. Hmm mal schauen ob mit dem Motorrad klappt (angebot an verkäufer ist raus). Wenn nicht gibts ne Graka. Und dann schauen was lieferbar ist.

Langlay
2025-08-20, 19:22:08
Was ist den für ne 9070XT so der Goldstandard für Stabilitätstest ? Also welcher Benchmark/Spiel ist am unverzeihlichsten für UV/OC.

dargo
2025-08-20, 19:40:38
Bei mir bisher eine Szene aus Ratchet & Clank welche keine -60mV auf der Hellhound XT überlebt. Alle Spiele die ich bisher so angespielt hatte laufen auch mit mehr negativ Offset. Ich kann gerne das entsprechende Savegame hochladen wenn Bedarf besteht. Getestet hatte ich aber bisher nur mit reinem Raster bei den Settings ohne RT. Kann sein, dass mit RT mehr geht weil sich die Lastverteilung verändert.

Edit:
Mir fällt gerade ein eventuell liegt es an Direct Storage in diesem Spiel, dass hier am wenigsten geht. Mehr Arbeitsstress für die Grafikkarte?

Freestaler
2025-08-20, 19:48:34
RedDevil ist bestellt. Mal schauen wie sie wird. 6900 geht in die Bucht (ricardo.ch) ab 200.

Langlay
2025-08-20, 19:51:42
Bei mir bisher eine Szene aus Ratchet & Clank welche keine -60mV auf der Hellhound XT überlebt. Alle Spiele die ich bisher so angespielt hatte laufen auch mit mehr negativ Offset. Ich kann gerne das entsprechende Savegame hochladen wenn Bedarf besteht. Getestet hatte ich aber bisher nur mit reinem Raster bei den Settings ohne RT. Kann sein, dass mit RT mehr geht weil sich die Lastverteilung verändert.




Das hab ich leider nicht.

OCmylife
2025-08-20, 20:08:18
Das hab ich leider nicht.

Ich habe beim OC der 4080 Super festgestellt, dass sich Indiana Jones auch hervorragend als Stabilitätstest eignet. Das quittiert Dir instabile Taktraten innerhalb weniger Minuten mit einem Crash. :freak:

dargo
2025-08-20, 20:10:18
Was hat denn eine 4080S mit einer 9070XT zu tun? :freak:

gedi
2025-08-20, 20:11:05
Am besten ausloten kannst du es in den Spielen, wo relativ wenig Last anliegt und dir der Takt durch die Decke geht. Was du machen kannst ist dem Fall, daß UV verringern, oder den Taktoffset verringern, oder du machst es wie ich und gibst jedem Spiel sein eigenes Taktprofil. So bist du in jedem Spiel auf der sicheren Seite, ohne Performance zu verschenken.

Langlay
2025-08-20, 20:14:42
Ich habe beim OC der 4080 Super festgestellt, dass sich Indiana Jones auch hervorragend als Stabilitätstest eignet. Das quittiert Dir instabile Taktraten innerhalb weniger Minuten mit einem Crash. :freak:


Naja in meiner Errinnerung wars mit der 4090 nicht besonders auffällig, aber ich werds mal probieren.


Am besten ausloten kannst du es in den Spielen, wo relativ wenig Last anliegt und dir der Takt durch die Decke geht. Was du machen kannst ist dem Fall, daß UV verringern, oder den Taktoffset verringern, oder du machst es wie ich und gibst jedem Spiel sein eigenes Taktprofil. So bist du in jedem Spiel auf der sicheren Seite, ohne Performance zu verschenken.

Ich hätte lieber ein Profil das überall stabil ist. Ob die Karte jetzt 5% schneller oder langsamer ist, ist mir eher egal.

dargo
2025-08-20, 20:21:55
Ich hätte lieber ein Profil das überall stabil ist. Ob die Karte jetzt 5% schneller oder langsamer ist, ist mir eher egal.
Da wirst du keine 5% bekommen, viel zu hoch gegriffen. :D Und ja... mir wäre das auch zu dämlich ein passendes Profil für jedes Spiel auszuloten. Ich richte mich ebenfalls nach dem worst case aus den ich vorfinde.

Freestaler
2025-08-20, 20:33:39
Top wäre ein Worstcase, welcher jeder for free nachstellen könnte. Hat da einer ne Idee?

OCmylife
2025-08-20, 22:13:46
Was hat denn eine 4080S mit einer 9070XT zu tun? :freak:

Das Spiel unterscheidet bei der Auslastung und Stabilität sicher, ob da AMD oder Nvidia auf der GPU steht. 😉

dargo
2025-08-20, 22:49:35
Schon mal daran gedacht, dass unterschiedliche Architekturen unterschiedliche Bottlenecks haben?

nairune
2025-08-20, 23:30:26
Ich hätte lieber ein Profil das überall stabil ist. Ob die Karte jetzt 5% schneller oder langsamer ist, ist mir eher egal.

Wenn dir das egal ist, gewünschtes Powerlimit einstellen und du bist fertig?

Langlay
2025-08-20, 23:40:08
Wenn dir das egal ist, gewünschtes Powerlimit einstellen und du bist fertig?

Bischen mehr Spieltrieb hab ich schon, das ich auch die UV Spannung ausloote.

Bin aktuell bei 280W PL (-15%), -500MHz, -75mV und RAM auf 2800.


Bis jetzt ist aber noch nichts abgeschmiert. Aber da mach ich erst morgen weiter. Hab jetzt jeweils ~1h Cyberpunk und KCD2 gespielt.

Tigershark
2025-08-20, 23:57:30
ich glaube, _meistens_ ist -75mV bei N48 safe. ABER dann gibt es immer wieder Kombinationen von niedriger Last/hohem Takt oder plötzlichen Powerpeaks, die dann eben doch zu Abstürzen führen (können). Und dann spielt natürlich die Silikonlotterie mit rein.

Ich hab mit meiner non-XT bislang bei -85mV und -10%PT keine Kombo gefunden, die einen Absturz verursacht hätte und fahre das jetzt als default Setting.

Bandit3644
2025-08-21, 05:55:40
Bei meiner 9070XT ist PL (-15%), -350MHz, -70mV bis jetzt stabil allerdings ist der Verbrauch bei max. nur 257 Watt. Den Ram habe ich nicht angerührt.

dargo
2025-08-21, 07:18:04
Bischen mehr Spieltrieb hab ich schon, das ich auch die UV Spannung ausloote.

Bin aktuell bei 280W PL (-15%), -500MHz, -75mV und RAM auf 2800.


Bis jetzt ist aber noch nichts abgeschmiert. Aber da mach ich erst morgen weiter. Hab jetzt jeweils ~1h Cyberpunk und KCD2 gespielt.
Vram aufpassen, kann auch ab Wert X etwas bremsen. Ergo dann sinnfrei.

btw.
Habe noch ein Video von GoW aufgenommen um im Gameplay zu zeigen wie gut der Hellhound XT Kühler ist. Leider vergessen, dass ReLive sich ca. 10W vom Powerbudget krallt sonst hätte ich für das Video 270W genommen damit man sieht wie die Graka auch öfter ins Taktlimit mit dem neuen Betriebspunkt inkl. -50mV UV rennt. Ohne Aufnahme mit max. 261W sind es öfter auch 25xW. Dank Videoaufnahme sind es hier halt jetzt praktisch dauerhaft 261W.

4k + FSR 4 balanced, max. Settings (Raum = 25°C)
BUGFsroixkc

Ich weiß... ich wiederhole mich. Man muss das Game einfach in HDR auf einem OLED erleben. Völlig anderes, visuelles Erlebnis.

Freestaler
2025-08-21, 07:32:17
Hat einer kurz ein Printscreen seiner Settings? Oder gibt irgendwo nen guten Guide?

Hakim
2025-08-21, 07:38:28
Ist halt von Karte zu Karte, Chipgüte, unterschiedlich, einfach selber rantasten und schriftweise sehen wo langsam es problematisch wird. Gut wäre einige belastende Spiele zu testen, pro step.

dargo
2025-08-21, 07:48:17
Hat einer kurz ein Printscreen seiner Settings? Oder gibt irgendwo nen guten Guide?
Damit kannst du erstmal anfangen. Powerlimit je nach Lust/Laune, Verstand oder einfach Kühlerperformance. ;)
93947

Langlay
2025-08-21, 08:25:59
Vram aufpassen, kann auch ab Wert X etwas bremsen. Ergo dann sinnfrei.


https://i.imgur.com/0z65Q2r.png

Ich hab mit memtest_vulkan den Takt ausgelootet ab dem es keine Performancegewinne durch Vram Takt Erhöhung gibt, war bei mir bei 2850 MHz bin 50MHz zurück gegangen um auf der sicheren Seite zu sein. Allerdings soll PUBG relativ empfindlich bei den 9070 auf instabilen Vram sein. Das werd ich nachher auch nochmal testen.

Freestaler
2025-08-21, 08:30:27
@Dargo, danke dir. Mhz wohl boostspitzen kappen, uv klar, tdp regler auch. Passt mal schauen wo ich nach ein paar Wochen dann lande.

dargo
2025-08-21, 08:32:15
@Langlay

Vergleiche nicht nur das sondern auch die Performance. Bei mir wurde bsw. CP77 mit bereits +100Mhz minimal langsamer. Ob das an der Fehlerkorrektur bereits bei so einer kleinen Erhöhung liegt mag ich eher anzweifeln (nicht genauer untersucht). Vielmehr habe ich den Speichercontroller in Verdacht der sich einfach mehr Powerbudget dann schnappt wodurch dann etwas weniger Budget der GPU zur Verfügung steht. Vram an sich frisst ja eher sehr wenig. Müsste ich mir noch genauer ansehen. Sollte tatsächlich der Speichercontroller bei Vram-OC sehr hungrig (dann ist er aber bereits @Stock sehr hungrig) sein würde hier MPT Abhilfe schaffen. Gibts leider nicht bei RDNA4.

Mhz wohl boostspitzen kappen...
Ich mache das hauptsächlich weil das Ding bei den sehr hohen Boostspitzen reinste Energieverschwendung ist. Kann jeder sehen wie er möchte.

Langlay
2025-08-21, 08:38:03
@Langlay

Vergleiche nicht nur das sondern auch die Performance. Bei mir wurde bsw, CP77 mit bereits +100Mhz minimal langsamer. Ob das an der Fehlerkorrektur bereits bei so einer kleinen Erhöhung liegt mag ich eher anzweifeln (nicht genauer untersucht). Vielmehr habe ich den Speichercontroller in Verdacht der sich einfach mehr Powerbudget dann schnappt wodurch dann etwas weniger Budget der GPU zur Verfügung steht. Vram an sich frisst ja eher sehr wenig. Müsste ich mir noch genauer ansehen.




Ich vermute das wird am Powerlimit liegen, bei mir sind zwischen Stock und 2800MHz FT 10-20W mehr Boardpower in nicht PL limitierten Szenarien.


Ich hab mit dem 280W PL auch noch etwas mehr Spielraum als du.

dargo
2025-08-21, 08:41:38
Ich vermute das wird am Powerlimit liegen, bei mir sind zwischen Stock und 2800MHz FT 10-20W mehr Boardpower in nicht PL limitierten Szenarien.


Ich hab mit dem 280W PL auch noch etwas mehr Spielraum als du.
Ja... dieser Punkt kommt noch hinzu. 10-20W mehr finde ich aber schon heftig, danke für den Vergleich.

Hakim
2025-08-21, 08:53:01
Wie viel macht den 100Nhz Vram OC aus? Normal würde man ja denken da die Konkurrenz schon deutlich schnelleren Ram nutzt würde es vielleicht gut helfen, aber ja andere Architektur, Infinity Cache etc

dargo
2025-08-21, 09:00:58
Wie viel macht den 100Nhz Vram OC aus?
So viel, dass bereits CP77 ca. einen halben Frame (bei >100fps) in einem 261W Powerbudget langsamer ist. ;)

Tigershark
2025-08-21, 09:03:38
also bei allen Tests, die ich bisher so gelesen habe, ist VRAM OC bzw. die Performancegewinne dadurch vernachlässigbar gewesen, obwohl die Specs von N48 durchaus hier eine Limitierung suggerieren.

Hakim
2025-08-21, 09:03:53
Ja dann kann man es auch ganz lassen :)

dargo
2025-08-21, 09:05:45
also bei allen Tests, die ich bisher so gelesen habe, ist VRAM OC bzw. die Performancegewinne dadurch vernachlässigbar gewesen, obwohl die Specs von N48 durchaus hier eine Limitierung suggerieren.
Auch mal mit bsw. 330W Powerbudget verglichen? Wie schon gesagt... je kleiner das Powerbudget umso sinnfreier Vram-OC. Und wenn ich richtig deine Sig. deute hast du eine RX 9070 non XT. Das Ding hat eh mehr Bandbreite pro Recheneinheit zur Verfügung.

Langlay
2025-08-21, 09:09:31
Stock Vram

https://i.imgur.com/KpZRS5z.jpeg

2700MHz Vram

https://i.imgur.com/9KE1Ahc.jpeg

2800MHz Vram

https://i.imgur.com/T6ZfVge.jpeg

dargo
2025-08-21, 09:12:55
Boah... bitte Thumbnails verwenden. Die Lesbarkeit leidet bei diesen riesen Bildern extrem.

btw.
Hast du da irgendwo schnelles Timing drin oder alles Standard?

Langlay
2025-08-21, 09:17:13
Boah... bitte Thumbnails verwenden. Die Lesbarkeit leidet bei diesen riesen Bildern extrem.



Hilf dir selbst : Kontrollzentrum (vom Forum) -> unter Einstellungen & Optionen auf Einstellungen ändern und etwas runterscrollen :


https://i.imgur.com/nG6urCe.png




btw.
Hast du da irgendwo schnelles Timing drin oder alles Standard?



Timings war jeweils Standard.

dargo
2025-08-21, 09:20:54
Hilf dir selbst : Kontrollzentrum (vom Forum) -> unter Einstellungen & Optionen auf Einstellungen ändern und etwas runterscrollen :


https://i.imgur.com/nG6urCe.png

Das ist trotzdem Käse. Will ich mir was im Bilder-Thread ansehen muss ich das wieder ändern, nervig. Die Thumbnails wurden nicht ohne Grund erfunden.

Langlay
2025-08-21, 09:22:43
Das ist trotzdem Käse. Will ich mir was im Bilder-Thread ansehen muss ich das wieder ändern, nervig. Die Thumbnails wurden nicht ohne Grund erfunden.


Das grosse Bild ist in dem Fall dann nur einen Klick entfernt :


https://i.imgur.com/OmNvLmk.png

dargo
2025-08-21, 09:24:18
Bei dir ja, im Bilderthread nicht.

Edit:
Halt... ich muss den Thread aktualisieren dann geht es auch dort. Fehler im 3DC oder Chrome?

btw.
Lol... das ist jetzt wirklich etwas seltsam. :D Vorher hatte ich ca. halben Frame weniger gehabt mit RAM-OC. Bin mir nur nicht mehr sicher ob ich da bei max. 250W war oder 261W. Was sicher ist... ich hatte immer Fast Timings verwendet, außer bei Stock. Jetzt skaliert tatsächlich Vram-OC hier positiv, egal ob 304W Powerbudget oder 261W.


Stock 304W, no Fasttimings
https://i.postimg.cc/BPGYFYRT/Cyberpunk2077-2025-08-21-09-34-44-606.jpg (https://postimg.cc/BPGYFYRT)

304W, non Fasttimings, 2,7Ghz VRAM
https://i.postimg.cc/7GSXq1bf/Cyberpunk2077-2025-08-21-09-37-57-757.jpg (https://postimg.cc/7GSXq1bf)

261W, -50mV, no Fasttimings
https://i.postimg.cc/crkz9m3S/Cyberpunk2077-2025-08-21-09-42-02-620.jpg (https://postimg.cc/crkz9m3S)

261W, -50mV, no Fasttimings, 2,7Ghz VRAM
https://i.postimg.cc/jL18QjVq/Cyberpunk2077-2025-08-21-09-45-18-505.jpg (https://postimg.cc/jL18QjVq)

Bevor ich aber den VRAM übertakte (und somit auch den Speichercontroller) gehe ich lieber auf Fasttimings, bringt im Prinzip das selbe.

261W, -50mV, Fasttimings, no VRAM-OC
https://i.postimg.cc/Y40YX6QJ/Cyberpunk2077-2025-08-21-10-00-15-503.jpg (https://postimg.cc/Y40YX6QJ)

Tigershark
2025-08-21, 09:46:17
Auch mal mit bsw. 330W Powerbudget verglichen? Wie schon gesagt... je kleiner das Powerbudget umso sinnfreier Vram-OC. Und wenn ich richtig deine Sig. deute hast du eine RX 9070 non XT. Das Ding hat eh mehr Bandbreite pro Recheneinheit zur Verfügung.

Ja, ich habe schon eine non-XT, aber ich rede ja nicht von mir, sondern von "echten" Tests und da meinte ich schon 9070 XT Karten. Im Vergleich zum OC/UV/PT Tweaking auf Seiten der GPU selbst sind die gains beim VRAM den Aufwand mMn schlicht nicht wert.


*edit*

Es gibt ja jetzt den Solar Bay Extreme Test in 3DMark... weiß nicht, ob der buggy ist oder ob das ein Verhalten der 9070 ist, aber folgende Beobachtung:

Desktoprefreshrate auf 144Hz, maxclock GPU: 2698 MHz, FPS 132,x, Score 18932:
https://s1.directupload.eu/images/250821/temp/4hbtz5p5.jpg (https://www.directupload.eu/file/d/9018/4hbtz5p5_jpg.htm)

Zum Vergleich, Desktoprefreshrate auf 120Hz, maxclock GPU: 2803 MHz, FPS 120 (Limit), Score 17160:
https://s1.directupload.eu/images/250821/temp/zqbli2oz.jpg (https://www.directupload.eu/file/d/9018/zqbli2oz_jpg.htm)

Also... die GPU taktet _höher_, ich habe aber weniger FPS bei 120Hz (da greift das VSYNC, obwohl das komisch ist da Freesync aktiv ist, ist aber reproduzierbar) als
bei 144Hz mit WENIGER Takt. Ist das ein Zeichen dafür, dass bei 120Hz weniger Last anliegt wegen dem FPS-Limit und deswegen die GPU höher taktet oder was sehe ich hier?

dargo
2025-08-21, 10:19:24
Ist das ein Zeichen dafür, dass bei 120Hz weniger Last anliegt wegen dem FPS-Limit und deswegen die GPU höher taktet oder was sehe ich hier?
Ja... max. Clock ist eh wayne (ist nur ein Peak für einen kleinen Augenblick irgendwo im Benchmark), avg. Clock ist das einzige was zählt. Du kannst das viel besser mit CapFrameX loggen.

btw.
Da fällt mir gerade ein... ich würde da aktuell eh nicht jeden einzelnen Wert bei Takt und Power auf die Goldwaage legen. Ich sehe zb. nicht selten, dass trotz 261W Deckel manchmal was spürbar drüber geht. Ist halt die Frage ob die Telemetrie noch vereinzelt einen "Schluckauf" hat oder die Auslesetools bestimmte Werte falsch interpretieren.

Tigershark
2025-08-21, 10:34:13
Ja... max. Clock ist eh wayne (ist nur ein Peak für einen kleinen Augenblick irgendwo im Benchmark), avg. Clock ist das einzige was zählt. Du kannst das viel besser mit CapFrameX loggen.

btw.
Da fällt mir gerade ein... ich würde da aktuell eh nicht jeden einzelnen Wert bei Takt und Power auf die Goldwaage legen. Ich sehe zb. nicht selten, dass trotz 261W Deckel manchmal was spürbar drüber geht. Ist halt die Frage ob die Telemetrie noch vereinzelt einen "Schluckauf" hat oder die Auslesetools bestimmte Werte falsch interpretieren.

Ja, da hast Du vermutlich recht.
3DM selbst protokolliert auch die durchschnittliche Taktfrequenz, auch die ist bei dem niedrigeren Resultat (rechts) höher:

https://s1.directupload.eu/images/250821/temp/2klclz2x.jpg (https://www.directupload.eu/file/d/9018/2klclz2x_jpg.htm)

Aber irgendwas ist da strange. Wenn ich VSYNC global deaktiviere, geht meine CPU-Last massiv runter, dafür gibt es dann komische Peaks von >3,1GHz bei der GPU und >4,9GHz bei der CPU (lt. Telemetrie)...

Hakim
2025-08-21, 10:37:17
Wie kann man Fasttimings aktivieren?

dargo
2025-08-21, 10:38:23
Im Treiber seit gefühlt einer Ewigkeit. Wobei ich hier auch gerne noch ein externes Tool für die Timings hätte. Einfach nur um zu sehen ob da noch mehr geht.

Tigershark
2025-08-21, 10:44:51
Wie kann man Fasttimings aktivieren?

hier:

https://s1.directupload.eu/images/250821/po5psu94.jpg (https://www.directupload.eu)

Hakim
2025-08-21, 12:49:31
Ja sry falls meine Fragen für AMD User selbstverständlich sind, meine letzte Radeon ist lange her

aufkrawall
2025-08-21, 12:59:46
Bringt halt im besten Fall nichts, kann aber das System hart crashen wie eine Boeing.

dargo
2025-08-21, 15:33:37
Ja sry falls meine Fragen für AMD User selbstverständlich sind, meine letzte Radeon ist lange her
Achso... dann sag das doch gleich. :)

Bringt halt im besten Fall nichts, kann aber das System hart crashen wie eine Boeing.
Man kann es auch übertreiben. Bei N21 konnte ich sogar für 2100Mhz VRAM auf 1006mV (Stock 1150mV) beim SoC runter inkl. Fasttimings. In den letzten ~4 Jahren ist da nichts deswegen gecrashed. Und N48 ist damit auch vollkommen unauffällig bisher. Die Timings sind beim Samsung GDDR6 aber womöglich entschärft oder der Hynix war da zickig, will ich nicht unbedingt ausschließen wollen.

dargo
2025-08-21, 15:36:49
del

aufkrawall
2025-08-21, 15:40:38
Man kann es auch übertreiben. Bei N21 konnte ich sogar für 2100Mhz VRAM auf 1006mV (Stock 1150mV) beim SoC runter inkl. Fasttimings. In den letzten ~4 Jahren ist da nichts deswegen gecrashed.
Vielleicht nicht deswegen. Aber wenn man es damit mit dem UV oder RAM-OC auch nur etwas übertreibt, kann es schon mal eine Trennung vom Strom brauchen, damit die Karte unter Windows wieder korrekt erkannt wird.

Rentner
2025-08-21, 18:31:28
Bringen bei euch die schnellen Timings überhaupt einen nennenswertes Gewinn an Leistung?
Hab das vor Monaten mal getestet mit CP2077 und dem 3DMark Stahl Nomaden. War immer nur ein Plus von <1FPS
Auch ein höherer Takt bringt nicht wirklich viel

dargo
2025-08-21, 19:02:15
Du siehst doch die Ergebnisse auf der letzten Seite. :confused: Nennenswert ist daran sicherlich nichts. Ich betrachte es einfach aus einem anderen Blickwinkel. Durch Fasttimings spare ich mir ca. 8W Power ein. Denn diese Power müsste ich wieder in die GPU investieren um gleiche fps zu erreichen.

Rentner
2025-08-21, 20:02:37
Du siehst doch die Ergebnisse auf der letzten Seite. :confused: Nennenswert ist daran sicherlich nichts. Ich betrachte es einfach aus einem anderen Blickwinkel. Durch Fasttimings spare ich mir ca. 8W Power ein. Denn diese Power müsste ich wieder in die GPU investieren um gleiche fps zu erreichen.
Hab das alles nur überflogen
Ich hänge in diesem Thread locker 10 Seiten zurück :rolleyes:

phoenix887
2025-08-22, 00:08:18
Du siehst doch die Ergebnisse auf der letzten Seite. :confused: Nennenswert ist daran sicherlich nichts. Ich betrachte es einfach aus einem anderen Blickwinkel. Durch Fasttimings spare ich mir ca. 8W Power ein. Denn diese Power müsste ich wieder in die GPU investieren um gleiche fps zu erreichen.

Und sich dann über instabile Programme wie Chrome wundern. Mein Humor :D

Hakim
2025-08-22, 10:31:49
Jetzt auch bei 9070XT das 12HPWR Problem, und das bei gerade mal 340W und damit weit weg von der Kapazitätsgrenze von 600W. Könnte aber hier ein Einzelfall gewesen sein, dennoch motiviert eher direkten 3x 8pin Karte zu holen

https://videocardz.com/newz/first-radeon-rx-9070-xt-user-reports-melted-12v-2x6-adapter

][immy
2025-08-22, 10:57:02
Jetzt auch bei 9070XT das 12HPWR Problem, und das bei gerade mal 340W und damit weit weg von der Kapazitätsgrenze von 600W. Könnte aber hier ein Einzelfall gewesen sein, dennoch motiviert eher direkten 3x 8pin Karte zu holen

https://videocardz.com/newz/first-radeon-rx-9070-xt-user-reports-melted-12v-2x6-adapter
Der Stecker ist halt ein kompletter Reinfall. Da hat jemand nicht damit geplant, das die Fertigung und Ausführung (Anbringung) nicht immer 1:1 nach Lehrbuch durchgeführt wird. Es gibt viel zu wenig Toleranz bei diesem Stecker und das ist für einen Plastikstecker bei den die Adern relativ locker drin sitzen (oder halt an der falschen Stelle) dann einfach zu viel. Und da dann noch mehr Leistung drüber laufen lassen, als über die älteren dickeren Stecker ...
Es kommt ja noch hinzu, das durch die Reibung (als das aufstecken) sich die Kontakte langsam abarbeiten. Und wenn dann winzige Metallspähne darin verbleiben, können diese sich schnell entzünden oder sorgen für schlechteren Kontakt, so das die anderen Stecker mehr abbekommen. Das ganze ist ein reines Problem der Toleranzen, die bei dem Format absolut falsch (weil quasi nicht vorhanden) spezifiziert wurden.

Im Grunde gibt es die gleichen Probleme auch mit den alten Steckern, aber die Toleranzen, allein durch deren Dicke und Größe (und Anzahl an Leitungen) sind einfach deutlich höher, so das diese Probleme nur extrem selten überhaupt zu einem Problem werden.

Ich weiß echt nicht, warum man den Standard nicht verwirft. Mag aber am Stolz einiger Hersteller nagen.

dargo
2025-08-22, 10:59:59
Jetzt auch bei 9070XT das 12HPWR Problem, und das bei gerade mal 340W und damit weit weg von der Kapazitätsgrenze von 600W. Könnte aber hier ein Einzelfall gewesen sein, dennoch motiviert eher direkten 3x 8pin Karte zu holen

https://videocardz.com/newz/first-radeon-rx-9070-xt-user-reports-melted-12v-2x6-adapter
Wer sich diesen Stecker freiwillig antut ist selbst schuld. Gab mehr als genug Warnsignale aus der Geforce Ecke mit diesem Stecker. Einzelfälle hin oder her, ich meide definitiv diesen Stecker und hoffe auch, dass der bei RDNA5 nicht zum Standard bei allen AIBs wird. Wenn ja, dann aber bitte eine überarbeitete, sichere Version.

Raff
2025-08-22, 11:18:53
Ein neuer, kompakterer Stecker muss einfach her. 9070-XT-Karten verfügen teils über drei Oldschool-8-Pol-Buchsen - das ist fett und hässlich.

MfG
Raff

OgrEGT
2025-08-22, 11:37:09
Ein neuer, kompakterer Stecker muss einfach her. 9070-XT-Karten verfügen teils über drei Oldschool-8-Pol-Buchsen - das ist fett und hässlich.

MfG
Raff
Besser als schön und kaputt/gefährlich...

Rentner
2025-08-22, 12:10:12
Man hätte sich da besser bei vorhandenen Industriesteckern und Kabeln bedient. Da gibt´s so viele vorhandene Varianten die ganz andere Ströme übertragen.
Und wenn es ein fetter Harting geworden wäre :cool:
https://www.harting.com/de-DE/c/Industrie-Steckverbinder-Han-57904

dargo
2025-08-22, 12:19:12
Ein neuer, kompakterer Stecker muss einfach her. 9070-XT-Karten verfügen teils über drei Oldschool-8-Pol-Buchsen - das ist fett und hässlich.

Und auch völlig unnötig wie eine Sapphire Pulse/Pure XT oder Hellhound XT eindrucksvoll zeigen. :cool: Diese ganzen bescheuerten, unausgereiften neuen Stecker sind überhaupt nicht notwendig. Auch keine 3x 8-Pol wenn die IHVs/AIBs keine hirnverbrannten Powerlimits fahren. Die RX 7900XTX Hellhound die ich über eine Woche damals hier hatte war selbst von 400W @OC unbeeindruckt mit 2x 8 Pol. Das liegt auch daran, dass diese Stecker/Kabel einen Sicherheitspuffer von Faktor 1,9 haben!

btw.
Hatte ich schon gesagt wie grandios der Kühler der Hellhound XT ist? :tongue:
https://i.postimg.cc/ZCs5wg2z/God-of-War-2025-08-22-11-28.jpg (https://postimg.cc/ZCs5wg2z) https://i.postimg.cc/MncKN5JM/God-of-War-2025-08-22-11-37.jpg (https://postimg.cc/MncKN5JM) https://i.postimg.cc/Q9D8Br91/God-of-War-2025-08-22-11-39.jpg (https://postimg.cc/Q9D8Br91) https://i.postimg.cc/N9xgmPmV/God-of-War-2025-08-22-12-11.jpg (https://postimg.cc/N9xgmPmV)

Bester Wurf von AMD und hier natürlich auch Powercolor nach N21. :up: Raum aktuell bei 24,1°C, Temps in den Bildern selbstverständlich nach einer guten Aufwärmphase des Systems.

Rentner
2025-08-22, 12:47:34
btw.
Hatte ich schon gesagt wie grandios der Kühler der Hellhound XT ist? :tongue:
[/URL][/url]


Mir ist irgendwie so als ob ich das in ähnlicher Form vor einer Million Seiten schon mal geschrieben hab :wink::tongue:

dargo
2025-08-22, 13:00:08
Mir ist irgendwie so als ob ich das in ähnlicher Form vor einer Million Seiten schon mal geschrieben hab :wink::tongue:
:biggrin:

Vor einer Million Seiten war leider der Preis der Karte noch kacke. :) Und ich hatte damals zusätzlich noch Bedenken wegen der min. 800RPM in Idle. Zum Glück sind diese aus meinem Gehäuse nicht herauszuhören, insofern eine perfekte Grafikkarte. :up:

Disco_STFU
2025-08-22, 13:08:23
Unter 600€ für so ne gute XT ist schon fast kriminell! :D

dargo
2025-08-22, 13:16:27
In der Tat. :D

Aber ehrlicherweise gehört ein N48 auch dort hin @~600€. Nur so ein Preis mit dieser Leistung bringt das gesamte PC-Gaming wieder ein gutes Stück nach vorne und nicht der scheiß mit mehr Leistung, aber auch höheren Preisen vs. Vorgänger.

][immy
2025-08-22, 20:55:31
Ein neuer, kompakterer Stecker muss einfach her. 9070-XT-Karten verfügen teils über drei Oldschool-8-Pol-Buchsen - das ist fett und hässlich.

MfG
Raff
Nun, man könnte neue Stecker designen wo nur noch die benötigten Leitungen vorhanden sind. Aber kleinere Durchmesser der einzelnen Adern wäre nicht gut. Da hat die Physik + praxis was dagegen. Weniger Gesamtverbrauch wäre vielleicht mal angebracht als durch immer kleinere Leitungen immer mehr zu jagen.

dargo
2025-08-24, 09:58:10
Hat hier jemand Erfahrungen mit HDR-Videos auf Youtube hochzuladen damit auch bei YT später die HDR-Option vorhanden ist? Ich habe mit folgenden Settings das Video mit OBS aufgenommen.
93974

Die Farben sehen in meinem aufgenommen Video bei der Wiedergabe am Desktop (HDR On) korrekt bzw. 1:1 aus so wie ich das auf dem QD-OLED mit HDR Ingame auch sehe. Lade ich das Video bei YT hoch sehen die Farben wieder falsch aus. Es wirkt alles etwas zu blass und die Highlights von HDR kommen gar nicht zu Geltung wie sie sollen. Die Option bei YT mit HDR fehlt dann auch komplett.

Edit:
Diesem Guide nach habe ich eigentlich alles korrekt gemacht oder übersehe ich was?
https://youtu.be/_lDPFjfkm1Q?si=t0HLtJ0AAbtDVlf4&t=1820

Hier noch die Daten von MediaInfo zum Video.
93975

Oder liegt es tatsächlich wirklich nur daran, dass YT bis zu paar Tagen braucht bis das HDR-Video im korrekten Format öffentlich zur Verfügung steht bzw. verarbeitet wurde? :freak:

dildo4u
2025-08-24, 10:52:37
Kein Plan ob es mittlerweile schneller oder langsamer geworden ist er spricht von 24 Stunden.


hhaEEruCQiI

dargo
2025-08-24, 11:03:28
Ja... habe das mit dem einen Tag aus dem von mir verlinkten Video schon mitbekommen. Soll aber auch von der Länge des Videos abhängen. Ich lass das HDR-Video jetzt mal auf YT und schaue ab morgen ob sich da was tut. Grandioser Speed von YT bzw. Google. Passt super zu einem Milliarden-Konzern. :uup:

Achill
2025-08-24, 12:02:37
Hat hier jemand Erfahrungen mit HDR-Videos auf Youtube hochzuladen damit auch bei YT später die HDR-Option vorhanden ist? Ich habe mit folgenden Settings das Video mit OBS aufgenommen.
93974

Die Farben sehen in meinem aufgenommen Video bei der Wiedergabe am Desktop (HDR On) korrekt bzw. 1:1 aus so wie ich das auf dem QD-OLED mit HDR Ingame auch sehe. Lade ich das Video bei YT hoch sehen die Farben wieder falsch aus. Es wirkt alles etwas zu blass und die Highlights von HDR kommen gar nicht zu Geltung wie sie sollen. Die Option bei YT mit HDR fehlt dann auch komplett.

Edit:
Diesem Guide nach habe ich eigentlich alles korrekt gemacht oder übersehe ich was?
https://youtu.be/_lDPFjfkm1Q?si=t0HLtJ0AAbtDVlf4&t=1820

Hier noch die Daten von MediaInfo zum Video.
93975

Oder liegt es tatsächlich wirklich nur daran, dass YT bis zu paar Tagen braucht bis das HDR-Video im korrekten Format öffentlich zur Verfügung steht bzw. verarbeitet wurde? :freak:

Ich habe damit keine Erfahrungen bisher gesammelt, bin nur noch immer erstaunt, dass es solch ein Pain ist. Ich hätte hier von Google einfach etwas Mitwirkung an OBS erwartet sodass dort passende Profile hinterlegt sind, oder eine Info nach dem Upload ... ggf. danach schon mal gesucht, ob Google / YT dies irgendwo anbietet?

Zur Frage, im Video an der von dir verlinkten Stelle wird gesagt, es im Main10 Encoding Format zu exportieren. In den MetaInfo Daten steht bei dir aber Main@L5.1 ... evtl. ist dies aber auch etwas anderes.

dargo
2025-08-24, 12:09:05
Ich muss mich da auch erstmal reinfuchsen, HDR-Upload auf YT ist Neuland für mich. :)

btw.
Profil main10 finde ich in OBS überhaupt nicht, nur main.

dmsephiroth
2025-08-25, 02:01:22
Ahoi!

Ich habe mir nun endlich einen neuen Rechner gegönnt und versuche mich noch für eine GPU zu entscheiden: Rechner= Ryzen 7800x3d, 32 gb DDR 5-6000 CL 30 Ram usw.

Ich denke eine 5070 hätte zu wenig Vram, also würde bei angedachter WQHD Auflösung wohl eher die 5070ti oder 9070xt Sinn machen.

Zu welcher Custom Karte würdet ihr bzgl. der 9070xt raten?
Hatte bisher die XFX Mercury Gaming OC Rgb angepeilt. Gibt es da Erfahrungsberichte?

Th3o
2025-08-25, 08:02:45
Powercolor Hellhound ist meine Empfehlung.

dargo
2025-08-25, 08:08:15
Meine auch. :)

skar
2025-08-25, 11:30:42
Jup,

ich behaupte mal das der Foren Konsens die Hellhound ist im Bezug auf Luftkühler und out of the box use.

also (y) Für die Hellhound.

dargo
2025-08-25, 11:56:39
@dmsephiroth

Muss es unbedingt eine 9070 XT sein? Du bist ja nur mit 1440p unterwegs. Da würde ich dir auch das hier uneingeschränkt empfehlen.
https://www.amazon.de/dp/B0DRPSF34T?linkCode=xm2&camp=2025&creative=165953&smid=A3JWKAKR8XB7XF&creativeASIN=B0DRPSF34T&tag=geizhalspre03-21&language=de_DE

Du kannst nahezu alles mit FSR 4 Quality (960p Input) spielen. Das ist Kindergeburtstag für diese Karte. Und sie ist auch von Haus aus super effizient mit dem deutlich besser gewählten Betriebspunkt.

dmsephiroth
2025-08-25, 14:22:09
@dmsephiroth

Muss es unbedingt eine 9070 XT sein? Du bist ja nur mit 1440p unterwegs. Da würde ich dir auch das hier uneingeschränkt empfehlen.
https://www.amazon.de/dp/B0DRPSF34T?linkCode=xm2&camp=2025&creative=165953&smid=A3JWKAKR8XB7XF&creativeASIN=B0DRPSF34T&tag=geizhalspre03-21&language=de_DE

Du kannst nahezu alles mit FSR 4 Quality (960p Input) spielen. Das ist Kindergeburtstag für diese Karte. Und sie ist auch von Haus aus super effizient mit dem deutlich besser gewählten Betriebspunkt.

Jepp sollte es schon^^

Dennoch danke Dir + den Anderen.

Die XFX Mercury kann niemand empfehlen?

Hakim
2025-08-25, 14:40:35
hatte hier glaub ich niemand, war auch kurz davor die mal zu holen (die OC Version da hier besserer Kühler), die war mal kurz für 650€ gelistet wo ich am überlegen war.

Edit: Bild hinzugefügt warum OC Version

dargo
2025-08-25, 14:51:02
Wie man eindrucksvoll bei einer Hellhound XT sehen kann ist eine Vapor Chamber überhaupt nicht notwendig bei N48XT. Vielleicht wenn man die auf fast 400W hochjagen will. Aber da habe ich große Zweifel, dass ne Mercury OC dann auch noch leise ist. Bei solchen Wattagen empfiehlt sich eh nur noch Wasser. Zumindest bei der Energiedichte auf einem 357mm² Chip. Luft ist da einfach am Ende, außer man ist schwerhörig.

Edit:
@Achill

Das mit dem HDR-Video passt bei YT. Die brauchen tatsächlich ca. einen ganzen Tag dafür. :freak: Aber immerhin kann ich HDR-Videos uploaden. :up:

rxdGDG8wQw4

dmsephiroth
2025-08-25, 16:18:34
Wie wäre die Sapphire Pure 9070xt?

Hat die jemand und kann davon berichten?
Ich weiss nur das Sapphire und Powercolor leider keine Endkundengarantie bieten. Anders als XFX und Asus z.B.

Hakim
2025-08-25, 16:42:52
hier ist eine Roundup mit einigen Modellen, aber die Tests widersprechen sich teilweise, also nicht stur drauf vertrauen. Aber so als grober Überblick

https://www.techspot.com/review/3015-amd-radeon-9070-xt-roundup/

Langlay
2025-08-25, 17:02:04
https://www.techspot.com/review/3015-amd-radeon-9070-xt-roundup/


Die Nitro+ ist in dem Test dort die schwerste 9070XT und ich hab mich beim einbauen noch gewundert das die Karte leichter ist als sie aussieht. Bin scheinbar doch irgendwie die schweren Nvidia Ziegelsteine gewohnt.

Hakim
2025-08-25, 17:09:03
1,9 Kg ist doch schon heftig, ich würde bei knapp 2Kg nicht mehr von "leichter" sprechen :). Aber was hattest du den für Ochis bisher wenn dir 2Kg leicht vorkommt?

Spring
2025-08-25, 17:30:41
Jepp sollte es schon^^

Dennoch danke Dir + den Anderen.

Die XFX Mercury kann niemand empfehlen?

Die Karte ist super (XFX Mercury Gaming OC), schon seit 5 Monaten im Einsatz. Sehr leise mit nur 620 rpm im Idle und unter Last + PT plus selten über 1350 rpm (selbst im Sommer), mit PT- praktisch nie über 1000 rpm. Qualitativ schönes Stück.

Von OC mit 363W bis PT-30% alles möglich, hat mehr Bumms als die Hellhound plus Vaporchamber. Wenn Du nur UV oder Standard laufen lassen willst, dann reicht eine normale Pulse oder Standard Hellhound.

Langlay
2025-08-25, 17:38:07
1,9 Kg ist doch schon heftig, ich würde bei knapp 2Kg nicht mehr von "leichter" sprechen :). Aber was hattest du den für Ochis bisher wenn dir 2Kg leicht vorkommt?


4080FE, 4090 FE (jeweils 2,2KG) und 5090 Astral (3KG)


Und ich hab die 5090 Astral halt gegen die 9070XT ausgetauscht also war das wahrscheinlich das was meine Wahrnehmung "geeicht" hat.

dmsephiroth
2025-08-25, 17:45:33
Die Karte ist super (XFX Mercury Gaming OC), schon seit 5 Monaten im Einsatz. Sehr leise mit nur 620 rpm im Idle und unter Last + PT plus selten über 1350 rpm (selbst im Sommer), mit PT- praktisch nie über 1000 rpm. Qualitativ schönes Stück.

Von OC mit 363W bis PT-30% alles möglich, hat mehr Bumms als die Hellhound plus Vaporchamber. Wenn Du nur UV oder Standard laufen lassen willst, dann reicht eine normale Pulse oder Standard Hellhound.

Wie laut ist die XFX Mercury wenn man die Lüfterkurve gut einstellt und UV bitte?

Danke schon mal für die Antwort!

dmsephiroth
2025-08-25, 17:47:05
hier ist eine Roundup mit einigen Modellen, aber die Tests widersprechen sich teilweise, also nicht stur drauf vertrauen. Aber so als grober Überblick

https://www.techspot.com/review/3015-amd-radeon-9070-xt-roundup/

Danke hab schon div. Reviews gelesen, aber wollt es lieber von Leuten hören, die die GPUs auch selbst gekauft+getestet haben.

Ansonsten finde ich dieses Review div. Custom Modelle besser:
https://www.computerbase.de/artikel/grafikkarten/radeon-rx-9070-xt-custom-design-test.91523/

Spring
2025-08-25, 17:54:05
@dmsephiroth
für mich unhörbar mit 620 rpm, sehr leise mit 1000 rpm und selbst mit 1350 rpm nicht störend (die XFX Merc 319 6950XT war klar lauter), aber das ist ja subjektiv.

Im Sommer hatte ich mal testweise bis zu 37% Lüfterspeed, unter Last 25-30% sind ausreichend (wahrscheinlich sogar teilweise zu viel) bei hohen Raumtemperaturen (26-28°C). Min Speed sind 15% mit eben 620 rpm.

EDIT: wie bei der Nitro+ ist die original Lüfterkurve Mist und geht auf 100% hoch (über 4000 rpm :ugly:). Aber das lässt sich ja mit wenigen Klicks beheben.

Langlay
2025-08-25, 17:57:06
Ich hab die Nitro+ (ich wollte speziell eine Karte mit 12VHPWR) und bin soweit zufrieden. Die Orginallüfterkurve ist allerdings nicht so geil. Ich betreibe die Karte mit UV bei 280W Powerlimit & 2800MHz VRAM und angepasster Lüfterkurve auf ~1000RPM unter Last das macht dann ~60°C Core, 70-75°C Hotspot & Memory. Ich hab aber Samsung Ram Hynix soll wohl heisser laufen.

w0mbat
2025-08-25, 18:39:41
Der SKHynix GDDR6-Speicher hat niedrigere Timings und ist ca. 2-3% schneller, wird dadurch aber auch etwas wärmer.

dargo
2025-08-25, 19:03:34
Etwas wärmer ist gut. :tongue:

Mich würde mal interessieren mit welcher Spannung der Hynix bei Last läuft? Bei Samsung sind es 1250mV in Idle und 1350mV bei Last.
https://i.postimg.cc/WqpFq80q/A-Plague-Tale-Requiem-2025-08-25-19-00.jpg (https://postimg.cc/WqpFq80q)

Irgendwoher muss ja die deutlich höhere Wärme bei Hynix herkommen. Von schärferen Timings eher nicht.

Hakim
2025-08-25, 19:05:08
Ja aber es ist doch so das nicht ein Modell explizit nur eine bestimmten Ram nutzt oder nicht? Von dem was ich beobachten konnte, evtl liege ich hier falsch, werden beide Rams für alle Modelle genutzt, daher kann man hier nicht drauf vertrauen das Karte A bei einem Test mit Skyhnix getestet wurde und davon ausgehen das die Bestellung damit ausgeliefert wird.

dargo
2025-08-25, 19:12:23
@Hakim

Für mich sieht es so aus als wenn gar kein N48 mehr (eventuell schon etwas länger) mit Hynix produziert wird. Womöglich gab es bei den ersten Chargen Lieferschwierigkeiten bei Samsung und deshalb musste AMD auf Hynix ausweichen. Reine Speku von mir allerdings. Möglicherweise liege ich mit dieser Vermutung komplett falsch und es laufen weiterhin zum Teil N48 mit Hynix vom Band.

Der_Korken
2025-08-25, 19:28:05
Etwas wärmer ist gut. :tongue:

Mich würde mal interessieren mit welcher Spannung der Hynix bei Last läuft? Bei Samsung sind es 1250mV in Idle und 1350mV bei Last.

Bei Hynix auch.

dargo
2025-08-25, 19:40:32
Dann weiß ich auch nicht mehr warum ein Hynix so viel wärmer wird. Oder bei Samsung sitzen die Sensoren nicht am heißesten Punkt. :freak:

dmsephiroth
2025-08-25, 23:40:20
@dmsephiroth
für mich unhörbar mit 620 rpm, sehr leise mit 1000 rpm und selbst mit 1350 rpm nicht störend (die XFX Merc 319 6950XT war klar lauter), aber das ist ja subjektiv.

Im Sommer hatte ich mal testweise bis zu 37% Lüfterspeed, unter Last 25-30% sind ausreichend (wahrscheinlich sogar teilweise zu viel) bei hohen Raumtemperaturen (26-28°C). Min Speed sind 15% mit eben 620 rpm.

EDIT: wie bei der Nitro+ ist die original Lüfterkurve Mist und geht auf 100% hoch (über 4000 rpm :ugly:). Aber das lässt sich ja mit wenigen Klicks beheben.
Danke Dir!

Wie performt die Karte bei RT oder sogar PT?
Ich hab die Nitro+ (ich wollte speziell eine Karte mit 12VHPWR) und bin soweit zufrieden. Die Orginallüfterkurve ist allerdings nicht so geil. Ich betreibe die Karte mit UV bei 280W Powerlimit & 2800MHz VRAM und angepasster Lüfterkurve auf ~1000RPM unter Last das macht dann ~60°C Core, 70-75°C Hotspot & Memory. Ich hab aber Samsung Ram Hynix soll wohl heisser laufen.

Ebenso Danke an Dich =)
Gleiche Frage an Dich: Wie performt die Karte bei RT+ PT so bei WQHD? :)

Langlay
2025-08-26, 00:35:07
Gleiche Frage an Dich: Wie performt die Karte bei RT+ PT so bei WQHD? :)


Da bin ich glaub ich der falsche Ansprechpartner(weil Wohlstandsverwahrlost) dafür. Ich spiele in UWQHD (3440x1440p) und imo ist für alles was über leichtes RT hinhaus geht, die 9070XT die falsche Karte und PT kannste knicken. Aber ich komme von der 4090/5090 und wenn ich ein RT/PT Spiel spielen wollen würde, würde ich es auf der 5090 machen. Daher meine Aussage vielleicht mit einem Körnchen Salz konsumieren.

dargo
2025-08-26, 06:19:52
Wie performt die Karte bei RT oder sogar PT?

Wie jede andere Performancekarte für ~550-650€ auch. Leichtere RT-Kost kein Problem, schwerere wird dann langsam schwierig. PT-Kost ist in der Regel zu teuer für dieses Segment. Wobei sich solche Fragen nicht pauschal beantworten lassen. Jeder hat eine andere Vorstellung wieviel fps er braucht. Auch die Pixellast ist bei jedem unterschiedlich. Du mit deinen 960p bei Quality Upscaling hast noch eine recht kleine Pixellast. Ich zb. bevorzuge bei meinem 4k Screen 1270p-1440p als Input bei FSR 4. Da macht sich eine RT/PT Frametime schon deutlich stärker bemerkbar.

[MK2]Mythos
2025-08-26, 17:52:22
OT gelöscht. Hier gehts um die RX9070 und nicht um Computergehäuse.

horn 12
2025-08-26, 19:30:12
ok
sorry!

dargo
2025-08-26, 21:00:02
Um auf das Thema der Lüfter bei der Hellhound XT zurück zu kommen welches ich anfangs angeritzt hatte. Habt ihr euch eure Lüfter mal genauer vor dem Einbau angeschaut? Mich hatte die etwas schlampige Fertigungstoleranz von Powercolor (möglicherweise nur einzelne Charge(n) betroffen) bissel gewundert.
93991 93992

Im zweiten Bild ist die leicht überstehende Kante vom Lüfter leider nicht scharf auf dem Bild erfasst. Ich habs jetzt nicht gemessen aber grob würde ich schätzen, dass der Ring an mancher Stelle ca. 1mm über steht. Auf der anderen Seite dann entsprechend minimal tiefer.

nVIDIA
2025-08-26, 22:15:54
Um auf das Thema der Lüfter bei der Hellhound XT zurück zu kommen welches ich anfangs angeritzt hatte. Habt ihr euch eure Lüfter mal genauer vor dem Einbau angeschaut? Mich hatte die etwas schlampige Fertigungstoleranz von Powercolor (möglicherweise nur einzelne Charge(n) betroffen) bissel gewundert.
93991 93992

Im zweiten Bild ist die leicht überstehende Kante vom Lüfter leider nicht scharf auf dem Bild erfasst. Ich habs jetzt nicht gemessen aber grob würde ich schätzen, dass der Ring an mancher Stelle ca. 1mm über steht. Auf der anderen Seite dann entsprechend minimal tiefer.

Was soll man denn noch erwarten? Es wird doch seit einigen GPU Generationen mittlerweile an den Lüftern gespart. Es sind meistens billige PWM Lüfter mit Kugellagern. Die schleifen, machen Rattergeräusche beim anlaufen (auf Gigabyte schiel) sind sehr dünn vom Kunststoff her gefertigt und fangen an, ab bestimmten Drehzahlen Resonanzen zu erzeugen, ergo laut. Ich denke nicht das du mit einer RMA, falls das Überlegt ist, eine bessere Karte bekommen wirst.
Lüfterrahmen runter und zwei 120mm Lüfter drauf. Was besseres kann man einer Grafikkarte nicht spendieren.

Freestaler
2025-08-26, 22:19:02
Hab nun ne RedDevil OC XT. In Games (deltaForce, CS, WZ) ist sie wirklich sehr leise immer max 900RPM. Im 3Dmark "singt" sie leider mit den Spulen leicht mit. Und das ganze im OC Profil mit -350/-75/-7. Mal schauen wie es im silent wird.

dargo
2025-08-27, 06:17:27
Was soll man denn noch erwarten? Es wird doch seit einigen GPU Generationen mittlerweile an den Lüftern gespart. Es sind meistens billige PWM Lüfter mit Kugellagern. Die schleifen, machen Rattergeräusche beim anlaufen (auf Gigabyte schiel) sind sehr dünn vom Kunststoff her gefertigt und fangen an, ab bestimmten Drehzahlen Resonanzen zu erzeugen, ergo laut. Ich denke nicht das du mit einer RMA, falls das Überlegt ist, eine bessere Karte bekommen wirst.
Lüfterrahmen runter und zwei 120mm Lüfter drauf. Was besseres kann man einer Grafikkarte nicht spendieren.
Wer spricht denn hier gleich von einer RMA? :) Die Lüfter laufen super sauber (zumindest bis 1100RPM, mehr nicht getestet weil ich nicht mehr brauche), Kühlleistung überzeugt auf ganzer Linie. Da gibt es aus dieser Richtung nichts zu bemängeln. Mich hatte das nur gewundert weil ich sowas noch nie angetroffen hatte. Selbst bei einer XFX Swift XT war alles sauber bei den Lüftern verarbeitet (hier stand kein Ring über der Kante), dort hatte dann leider die Kühlperformance mich nicht ganz überzeugt.

dmsephiroth
2025-08-27, 07:19:37
Wie jede andere Performancekarte für ~550-650€ auch. Leichtere RT-Kost kein Problem, schwerere wird dann langsam schwierig. PT-Kost ist in der Regel zu teuer für dieses Segment. Wobei sich solche Fragen nicht pauschal beantworten lassen. Jeder hat eine andere Vorstellung wieviel fps er braucht. Auch die Pixellast ist bei jedem unterschiedlich. Du mit deinen 960p bei Quality Upscaling hast noch eine recht kleine Pixellast. Ich zb. bevorzuge bei meinem 4k Screen 1270p-1440p als Input bei FSR 4. Da macht sich eine RT/PT Frametime schon deutlich stärker bemerkbar.

Wäre interessant inwiefern sich FSR Redstone +soon+ dann vs Nvidia Kram schlägt.

Aber hab noch nicht gelesen WANN das denn veröffentlicht wird.

horn 12
2025-08-27, 07:58:18
September Treiber!

dargo
2025-08-27, 08:45:33
Horni immer mit seinem Optimismus. :tongue:

@dmsephiroth
Ende 2025 vermutlich.

horn 12
2025-08-27, 08:57:32
Dies hies es ja vor etlichen Tagen bei Videocardz

Tigershark
2025-08-27, 13:39:59
Um auf das Thema der Lüfter bei der Hellhound XT zurück zu kommen welches ich anfangs angeritzt hatte. Habt ihr euch eure Lüfter mal genauer vor dem Einbau angeschaut? Mich hatte die etwas schlampige Fertigungstoleranz von Powercolor (möglicherweise nur einzelne Charge(n) betroffen) bissel gewundert.
93991 93992

Im zweiten Bild ist die leicht überstehende Kante vom Lüfter leider nicht scharf auf dem Bild erfasst. Ich habs jetzt nicht gemessen aber grob würde ich schätzen, dass der Ring an mancher Stelle ca. 1mm über steht. Auf der anderen Seite dann entsprechend minimal tiefer.

Hm. Vielleicht hat sich deswegen der Erstkäufer Deiner Karte entschieden, diese zu retournieren? Wenn es nur ein optisches Ding ist aber funktional keinen Unterschied macht, bspw. durch ungeplante Luftschlitze, die den Luftstrom negativ beeinflussen (bei der von Dir gemessenen, sehr guten Kühlperformance ja eher unwahrscheinlich), finde ich es akzeptabel. Nicht gut, weil es sicher besser geht (für mehr Kosten bei der Herstellung), aber auch nicht katastrophal.

dargo
2025-08-27, 14:41:17
Hm. Vielleicht hat sich deswegen der Erstkäufer Deiner Karte entschieden, diese zu retournieren?
Nur deswegen? Das wäre wirklich dumm. Ich hätte es natürlich verstanden wenn die Lüfter komische Geräusche deshalb von sich geben würden. Aber nur wegen der Optik? Die eh nur jemandem auffällt der genauer hinsieht? Wäre zumindest etwas strange.

dmsephiroth
2025-08-28, 02:18:28
Bei welcher Mindestdrehzahl starten die Lüfter der hier beliebten 9070xt Modelle?

Hab bzgl. Powercolor nur etwas zum 9070 Modell ohne XT gefunden:

https://www.techpowerup.com/review/powercolor-radeon-rx-9070-hellhound/39.html

Sprich: 600rpm start bis hoch auf 904 RPM unter Volllast.

Zur Sapphire Pulse:
https://www.techpowerup.com/review/sapphire-radeon-rx-9070-xt-pulse/39.html
Start ebenso ca. 600rpm, aber dann bis zu 1302 RPM unter Volllast.

Mercury Gaming OC RGB Magnetic Air:
https://www.techpowerup.com/review/xfx-radeon-rx-9070-xt-mercury-oc-magnetic-air/39.html
Ebenso Start bei ca. 600 RPM aber dann hoch bis 1589 RPM.

Ich vermute bei den Karten wurde nicht in Betracht gezogen zu undervolten oder die Lüfterkurve einzustellen?

Wäre interessant ob es da Daten bzgl. anderer zu empfehlender GPUs gibt.

dargo
2025-08-28, 04:36:35
Hellhound XT = min. ~800RPM
Pulse XT = min. ~735RPM

dmsephiroth
2025-08-28, 17:53:20
Danke schonmal :)

horn 12
2025-08-28, 18:44:40
Lass dich nicht wie Dargo damals abschrecken
die 800, eher gar knapp 850 U/min sind selbst im Idle, Surfen ecc.
nicht hörbar, wie damals schon mehrfach bekräftigt wurde, Gell @Dargo

dargo
2025-08-28, 19:27:25
Falsch... sowas lässt sich nicht pauschalisieren. Hast du ein schweizer Käse beim Gehäuse würde ich nicht dafür garantieren die ~800RPM wären unhörbar. Steht der schweizer Käse sogar noch extrem nah am User (zb. auf dem Schreibtisch) ist die Wahrscheinlichkeit nochmal größer, dass diese RPM leicht hörbar sind. Korken hört diese RPM zum Bleistift.

skar
2025-08-30, 14:47:17
Ich hätte hier noch einen kleinen Tipp für die Leute mit OC Modellen bei denen die 9070 XT einfach mal crashed mit einem driver timeout.

Meine Red Devil hat stumpf den Boosttakt teilweise auf 3,4 Ghz+ angehoben, über 3,3 Ghz ist sie regelmäßig irgendwann innerhalb von 5-10 Minuten gecrashed bei den Engines wo sie bis ultimo Takten kann. (z.b. UE5 mafia the old country, Space Marine II)

Die Lösung ist bei mir den Maximalen Offset im Treiber auf -100Mhz zu stellen, womit sie nicht über 3,3 Ghz geht.

Bei Mafia the old country kann man das ganz gut sehen, die Karte zieht nur 270W von möglichen 365W bei 3,3 GHZ mit 80% Gpu load und Läuft konstant mit 3,3 Ghz.

Hat leider echt gedauert bis ich darauf gekommen bin das sie so hoch taktet das sie abstürzt, da es nur in Spielen passiert wo sie spiele-engine bedingt so hoch Takten kann.

Ich dachte erst die Karte wäre defekt^^
Leider hat sie diese verhalten bereits im Standard OC Bios ohne Treiber Tweaks kombiniert mitt meinem 9800 X3D, könnte mir vorstellen das es bei dem einen oder anderen auch so auftreten könnte.

Lurtz
2025-08-30, 15:23:54
Die ist @default so sehr übertaktet, dass sie crasht?

dildo4u
2025-08-30, 15:28:02
Sapphie Garantiert nur 3.06Ghz kein Plan wie das getestet wird kann aber auch sein das sein Chip einfach eine Gurke ist.

Hakim
2025-08-30, 15:30:20
Vermutlich Undervoltet womit mehr Spielraum für den Takt noch oben frei wird, das geht halt nicht immer gut, daher Minus Takt Offset oder alternativ PT entsprechend begrenzen das der Takt gar nicht so hoch geht.

Freestaler
2025-08-30, 15:33:53
@skar mit Defaultsettings bereits gecrasht? Oder war dies bereits mit UV?

skar
2025-08-30, 15:36:10
Bei mir ja.

Laut Webseite soll der Boosttakt 3060 Mhz betragen, das sagt auch GPU-Z.

Mafia the old Country war das erste Spiel welches bei mir mit FSR gecrasht ist,

darauf hin habe ich mir das ganze angeschaut, und eben speziell bei UE5 spielen dieses Massive übertakten beobachte, mit GPU-Z und HW-info.

bei anderne Spielen wie z.b. Cyberpunk taktet die Karte nur auf 3,1 z.b. womit es halt stundenlang stabil lief.

Selbst Treiber mit DDU entfernen und neu installieren haben bei Default Einstellungen mit dem OC Bios das selbe Problem produziert.

Also ja, bei mir taktet die Karte anscheinend im OC Bios insbesondere bei UE5 zu hoch und stürzt ab. mit dem Silent Bios tut sie es allerdings nicht.

Ich hatte mal in Reddit geschaut, anscheinend hatten auch andere das selbe Problem mit anderen Modellen den RX 9070 XT.

Von daher dachte ich es könnte eventuell für die Interessant sein bei denen diese spezielle Verhalten auch auftritt.

Es mag eventuell auch an der Wasserkühlung liegen, da die Karte nicht in ein Thermische Limit laufen kann.

skar
2025-08-30, 15:40:50
@skar mit Defaultsettings bereits gecrasht? Oder war dies bereits mit UV?

mit UV instant crash, mit default Profil wenn sie den Peak auf über 3,3 Ghz hat.

mit -105 Mhz Offset geht sie nicht mehr über 3,3 GHZ und läuft in so gut wie allen Spielen permanent mit 3,3 Ghz, bei Cyberpunk sind es nur 3,2 GHZ :-)

aktuelle Treiber Einstellung siehe Anhang.

skar
2025-08-30, 15:41:44
Sapphie Garantiert nur 3.06Ghz kein Plan wie das getestet wird kann aber auch sein das sein Chip einfach eine Gurke ist.

Na ja läuft ja stabil mit 3,3 GHZ, finde nicht das es eine Gurke ist

Freestaler
2025-08-30, 17:20:33
Und der Takt als AVG mit GPU-Z geprüft? Bei mir pendet der sich ein um die 2950 mit -350,-75,-12

dargo
2025-08-30, 18:06:21
Sapphie Garantiert nur 3.06Ghz kein Plan wie das getestet wird kann aber auch sein das sein Chip einfach eine Gurke ist.
So ein Unsinn... jeder N48 XT boostet höher wenn er kann. Sprich... die Applikation lässt es zu (wenig Heizlast/Pixellast, CPU-Limit etc.), das Powertarget ebenfalls. Schluss ist theoretisch bei 3450Mhz wenn Power nicht limitiert.


Also ja, bei mir taktet die Karte anscheinend im OC Bios insbesondere bei UE5 zu hoch und stürzt ab. mit dem Silent Bios tut sie es allerdings nicht.

Das ergibt keinen Sinn. Es sei denn das Silent-Bios hat weniger Powertarget, dann natürlich logisch der höhere Boost. Allerdings sollte da nichts crashen bei der Stock V/F-Kurve.

dildo4u
2025-08-31, 07:18:55
Hängt vermutlich massiv vom Game ab BF6 scheint im dem Takt Bereich und TDP erreicht weit über 300Watt?


gvE_EZIYjDk

dargo
2025-08-31, 07:31:04
Warum das Fragezeichen jetzt? :freak: Kann es sein, dass du immer noch nicht verstanden hast wie eine V/F-Kurve funktioniert? Und was soll jetzt so ungewöhnlich an >300W sein? Ich kann meiner Hellhount XT auch erlauben bis zu 349W zu nuckeln. Mache ich aber nicht weil es aus Effizienzsicht (thermisch bei Lukü sowieso) vollkommen bescheuert ist. Boostfreqeunzen sind nichts anderes als das Ergebnis aus einer vordefinierten V/F-Kurve, dem als maximal vordefinierten Boost (N48 = 3450Mhz) und dem max. zulässigen Powertarget! Da es unterschiedliche Gaminglasten gibt variieren entsprechend die Boostfrequenzen. Ich erlaube bsw. meiner Karte max. 261W und max. 2950Mhz, real sind es ~2880Mhz. Dadurch verbraucht die Karte in einem TLOU1 auch öfter mal 220-230W. Nichts anderes macht Nvidia bei Blackwell bsw. auch. Deutlich weniger max. Boost @Stock erlauben als AMD. Dadurch laufen die SKUs öfter ins Taktlimit und erreichen nicht ihr max. vordefiniertes Powertarget, je nach Gaminglast halt.

Edit:
Hier ein schönes Beispiel aus TLOU1.

4k + FSR 4.0.2 Quality
https://i.postimg.cc/JtSYvnXx/The-Last-of-Us-Part-I-2025-08-31-08-13.jpg (https://postimg.cc/JtSYvnXx)

4k + FSR 4.0.2 Performance
https://i.postimg.cc/fVfHVfrq/The-Last-of-Us-Part-I-2025-08-31-08-13-1.jpg (https://postimg.cc/fVfHVfrq)

Was man hier auch schön sieht... das was ich bei der Graka durch die geringere Pixellast @Performance Upscaling einspare geht beinah 1:1 in den Verbrauch der CPU. Logisch... mit weniger Pixellast muss die CPU wieder mehr ackern.

dildo4u
2025-08-31, 07:36:01
Ich dachte die sind bei ca 300Watt limitiert wegen 2x8 Pin aber da kommt ja noch was über den PCI-E Slot.

dargo
2025-08-31, 07:47:19
Dann dachtest du falsch. Viele Hersteller halten sich nicht an dieses Limit weil die bewährten Stecker 90% Reserve haben und nicht 10% wie dieser missglückte 12VHPWR. Ich hatte schon öfter gesagt, dass selbst die Powercolor Hellhound RX 7900XTX mit nur zwei 8-Pin Steckern ausgeliefert wurde obwohl bis zu 400W bei dieser Karte möglich waren.

Mr.Ice
2025-08-31, 14:29:38
Ich bin am überlegen von 7900XT auf 9070XT upzugraden.

Lohnt sich das denn überhaupt ?

Naja irgendwo würde ich schon gerne FSR4 Nutzen in Games und auch das Redstone update klingt sehr reizvoll aber mit meiner 7900XT schau ich halt in die Röhre...

dargo
2025-08-31, 15:39:32
Das musst du schon selbst entscheiden ob es sich hauptsächlich wegen FSR 4 für dich lohnt. :) Vermutlich schon weil sich der Aufpreis bei dir in Grenzen halten dürfte.

btw.
Ich habe jetzt aus reiner Neugier geschaut wie sich der Hellhound XT Kühler nach langem daddeln mit max. 1.000RPM schlägt. Der Kühler ist einfach unglaublich. :O
https://i.postimg.cc/Whct26mF/The-Last-of-Us-Part-I-2025-08-31-15-32.jpg (https://postimg.cc/Whct26mF)

Hier werden zwar gerade nicht die vollen 261W ausgeschöpft, dann lasst es halt 2-3°C mehr sein. Immer noch eine wahnsinnige Kühlperformance. :eek: Und das ist bei 24,8°C Zimmertemperatur.