PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 9070 & 9070 XT Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 [10]

Hochzeit2
2025-09-03, 14:55:46
Nur hatte man mit Ampere praktisch das Gleiche, was man mit RDNA4 jetzt auch hat, nur halt 5 Jahre früher.

Ab welchen Verlogenheitsgrad hat das Konsequenzen für 3DC Angestellte?

Lurtz
2025-09-03, 14:58:22
In der Hinsicht hat sich aber bis zu Blackwell auch nicht viel geändert oder?
Das scheint ein sehr positives Licht auf Ampere (und IMO auch auf Turing) und ein sehr negatives auf RDNA3 (und auch RDNA2). Aber nicht unbedingt ein sehr positives auf Blackwell. Quasi alles was Blackwell macht ist Software.
Aber der Vergleich war ja Blackwell vs RDNA4 - also uArch vs uArch und nicht Software vs Software.
Bei letzterem stimmt es (bis zum Release von Redstone mindestens) allerdings. Aber auch da muss man konstatieren, dass AMD wirklich große Schritte gemacht hat. :)
Blackwell zeigt doch auch schon wieder Anzeichen, dass nVidia den Software/Featurevorsprung nicht hergeben wird. RR ist vielleicht nicht weit verbreitet, man konnte es aber schon deutlich verbessern in der Zeit am Markt und vor allem steckt es immerhin in Spielen, während Redstone erstmal irgendwann erscheinen muss.
Reflex und FG sind nach wie vor deutlich häufiger implementiert als FSR FG (letzteres hat zudem nach wie vor Probleme mit dem Framepacing, auch hier hat Blackwell ein neues Frame Pacing in Hardware eingeführt). MFG hat AMD bisher nicht, auch dazu werden sie wohl auf ein KI-Modell umstellen müssen.
Mit nVidia kann man in vielen Titeln (und in praktisch allen Titeln mit 3rd-Party-Tools) DLSS bei bis zu fünf Jahre alten Titeln enorm leicht deutlich aufwerten, während DLSS weiterhin häufiger als FSR implementiert wird.
Dass man im Treiber die Hardware nicht tunen kann, ist schade, dennoch habe ich Curve-UV am Ende mehr vermisst als eine Treiber-GUI dafür.

Ist großartig, dass FSR4 so gut geworden ist, auch für die kommenden Konsolen, aber sie hängen dennoch immer noch locker ein, zwei Jahre hinterher. Was die Verbreitung in PC-Spielen angeht noch mehr.
Insofern ist es eher das bare minimum, als dass es Gründe wären, eine Radeon zu kaufen.

Und vermutlich wird nVidia spätestens mit RTX 6000 mit der nächsten DLSS-Evolution ankommen, wie auch immer die aussehen wird.

Tesseract
2025-09-03, 14:59:31
Ne, ist reiner Zufall. Kannst aber auch Karten mit wenig Verbrauch und nervigem Surren haben. Wobei man da mit Nvidia wenigstens noch Curve-UV als sehr effektive Linderungsmaßnahme hat.
es kann unterschiede durch fertigungstoleranzen geben aber es ist definitiv nicht "reiner zufall" sondern teil vom acoustic engineering.

https://youtu.be/nwtPrG14uQk?t=144

La Junta
2025-09-03, 15:16:38
Ich habe mein NT gewechselt vor paar Tagen und mein coil whine ist komplett weg....
Ist zwar 1ne 4090er, aber ich dachte immer das NT hätte nur eine Nebenrolle beim fiepen, bei mir hat es jedoch nur am NT gelegen.
habe von 1nem 9 Jährigen HM850i aufs neue 2025er Corsair HM1200i gewechselt.
Und selbt mein Idle Verbrauch ging um ca5-7W runter, obwohl beide Platinum zertifiziert sind.

aufkrawall
2025-09-03, 15:18:47
es kann unterschide durch fertigungstoleranzen geben aber es ist definitiv nicht "reiner zufall" sondern teil vom acoustic engineering.

https://youtu.be/nwtPrG14uQk?t=144
Ich habe abartige Unterschiede zwischen den gleichen Modellen am selben Netzteil gesehen. Ich weiß nicht, wie man da den Kaufprozess als etwas anders als Trial & Error bezeichnen kann.

Langlay
2025-09-03, 15:43:37
Ich habe mein NT gewechselt vor paar Tagen und mein coil whine ist komplett weg....



Sowas ähnliches hab ich auch schon erlebt, ne Karte die bei mir gut gezirpt hat, war bei meiner Frau fast garnichts. Und wie haben quasi das gleiche System (Meine Frau mit 7800X3D und 4080)

dargo
2025-09-03, 16:11:14
das ist normal aber das aus dem gehäuse zu hören ist extrem, besonders bei frequenzen die eigentlich nicht gut propagieren.

Wie gesagt... ich hatte schon alles mögliche hier von kaum vorhanden über so lala bis störend laut. Wenn Leute von Spulengeräuschen berichten dann tappt man mit solchen Aussagen immer im Dunkeln weil die Lautstärke von diesen Geräuschen stark variiert. Ob dafür jetzt ein ungünstiges PCB-Design, eine ungünstige Kombination aus NT und Graka verantwortlich ist lasse ich erstmal offen. Es gibt dafür keine stichhaltigen Beweise bisher. Dennoch finde ich es ist höchste Zeit, dass die Hersteller dieses nervige Problem endlich mal aus der Welt schaffen. Man liest immer wieder bei Userbewertungen von Spulenfiepen/Spulenrasseln. Auch einige Reviewer weisen darauf hin bei manchen Exemplaren. So rar scheint also das Problem nicht zu sein.


bist du sicher dass das nicht über die gehäusewand geleitet wird wo (dämm)gummi oder ähnliches mehr bringen würde als weniger öffnungen?

Die Spulengeräusche kommen eindeutig von den Grafikkarten.


Mit nVidia kann man in vielen Titeln (und in praktisch allen Titeln mit 3rd-Party-Tools) DLSS bei bis zu fünf Jahre alten Titeln enorm leicht deutlich aufwerten, während DLSS weiterhin häufiger als FSR implementiert wird.

Wo ist da jetzt der große Vorteil? Ich kann überall FSR 4 haben wo DLSS implementiert ist. Ok, außer bei Vulkan vorerst was eh kaum benutzt wird. MP-Titel würde ich jetzt persönlich auch sicherheitshalber rausnehmen. Für mich allerdings kein Nachteil da ich nichts im MP seit vielen Jahren spiele.

Ich habe abartige Unterschiede zwischen den gleichen Modellen am selben Netzteil gesehen. Ich weiß nicht, wie man da den Kaufprozess als etwas anders als Trial & Error bezeichnen kann.
Eben... du wechselst auch öfter die Karten, hast da sicherlich eine bessere Übersicht. Deshalb stemple ich das mittlerweile als reinen Zufall ab ob Spulengeräusche passen (nerven nicht aus einem geschlossenen Gehäuse) oder nicht.

dargo
2025-09-03, 16:22:59
del

Der_Korken
2025-09-03, 16:40:22
Liegt auch an deren Kunden. AMD-Kunden sind extrem lustlos hinsichtlich technischen Fortschritts. Wird konsequent nicht supportet. Immer eine Generation hinterher, Features von gestern.
Hier macht Lederjacke alles richtig und hat richtig erkannt: Wer das Hobby liebt und sofort dabei sein will, wird Nvidia-Karten kaufen.
Wer es hasst, der kauft AMD. (y)
Die meisten mögen aber ihr Hobby, zum Glück. (y)

Und das von einem Technikfeind, der von seinem Lieblingshersteller nichtmal die neueste Generation besitzt. Schämst du dich etwa nicht?

ich habe nicht explizit für coilwhine recherchiert aber achte immer auf solide designs, das spielt wahrscheinlich eine große rolle, besonders bei netzteilen die man wahrscheinlich 10+ jahre verwendet und es wenig sinn macht ein paar euro zu sparen.


Wie aufkrawall schon geschrieben hat, ist und bleiben Spulengeräusche für mich eine komplette Lotterie. Ich hatte zu Release einen Thread im Luxx verfolgt, wo diverse Leute ihre (9070XT-)Modelle gepostet haben und wie dort die Geräuschkulisse der Spulen ist. Es gab einige starke Trends, z.B. dass die Nitro quasi immer krächzt, aber immer wieder auch Ausreißer. Die Hellhound wurde von anderen als lautlos betitelt, aber ich habe eindeutiges Brummen. Je höher das Powerlimit, desto lauter, aber komischerweise nicht in jedem Spiel gleich und in z.B. Furmark gar nicht, obwohl das heizt wie bolle. Netzteil-Wechsel hat absolut null gebracht (von bequiet E10 500W auf Corsair SF750, also anderer Hersteller, 8 Jahre Altersunterschied, Multirail vs Singlerail). Von der RX5700 hatte ich drei Karten da, alle haben auf ihre eigene Weise gebrummt, vor allem auch alle im Idle, wenn man z.B. ein Fenster verschoben oder gescrollt hat (interessanterweise unter Linux weniger als unter Windows). Für mich ist das dermaßen random, dass ich nicht erkenne, wie man hier durch vorherige Recherche verhindern will, dass die gekaufte Karte Geräusche macht.

---

Bezüglich der Preis-Diskussion tu ich mir immer mit den angebotenen Modellen schwer. Bei AMD ist die Auswahl relativ überschaubar, dafür gibt es mit der Pulse oder Hellhound zwei Modelle, die i.d.R. eher am unteren Ende der Preisspanne liegen und die man normalerweise blind kaufen kann, wenn man keine Sonderwünsche hat. Aktuell sind die ganzen XFX-Karten sehr günstig, aber selbst die sind durchaus brauchbar bis auf die schlechte Default-Lüfterkurve.

Bei Nvidia hatte ich, wenn ich zwischenzeitlich mal nach Modellen geschaut habe, immer jede Menge Schund gesehen, der in den Preislisten weit oben steht. D.h. Dual-Slot-Karten mit zwei Lüftern, die niemals 250W+ bei vernünftiger Lautstärke abführen können. Oder Karten, wo in den Bewertungen dann steht, dass die Lüfter bei 60°C mit 1300RPM anlaufen und bei 59°C wieder ausgehen (afaik Gigabyte). Kann aber auch an mir liegen, weil ich mit vielen Nvidia-Partnern (Gainward, KFA, Inno3D) null Erfahrungen habe. Bei den dicken Schiffe á la Strix, Suprim, Aorus und co. ist man natürlich i.d.R. auf der sicheren Seite, aber die kosten schnell mal 200€ als die "Billig-Modelle".

tl;dr: Einfach bei geizhals.de den günstigsten Preis des günstigen Modells zu nehmen, verzerrt imho zugunsten von Nvidia.

dargo
2025-09-03, 16:49:33
Einfach bei geizhals.de den günstigsten Preis des günstigen Modells zu nehmen, verzerrt imho zugunsten von Nvidia.
Vor allem wer will schon sowas kaufen mit eingebauten Verfallsdatum von 1-2 Jahren je nach Daddelzeit.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13806219&postcount=188

Afaik spricht dort Igor von unter einem Jahr bei täglich 4h Spielzeit oder so ähnlich.

Und das von einem Technikfeind, der von seinem Lieblingshersteller nichtmal die neueste Generation besitzt. Schämst du dich etwa nicht?

Verstehe ich auch nicht so wirklich. Featuremäßig ist ne RTX 4090 doch heute komplett lost. ;)

dildo4u
2025-09-03, 16:54:10
Igor erzeugt gerne Clicks mit solchen Artikeln natürlich gibt es überall Gurken.


https://www.igorslab.de/fehlerhafte-chip-oberflaeche-ab-werk-bei-einer-radeon-rx-9070xt-extreme-hotspot-temperaturen-und-ursachenforschung-zum-pitting/

Hakim
2025-09-03, 16:55:34
tl;dr: Einfach bei geizhals.de den günstigsten Preis des günstigen Modells zu nehmen, verzerrt imho zugunsten von Nvidia.

Ich versuche oft eine bekannte Einsteigerkarte die es bei einem Hersteller für beide gibt zu picken um dann ungefähr direkt zu vergleichen. Oft die Asus Prime reihe, derzeit als 9070XT 673€, als 5070Ti 799€, 127€ Unterschied.

dargo
2025-09-03, 16:59:59
Igor erzeugt gerne Clicks mit solchen Artikeln natürlich gibt es überall Gurken.


https://www.igorslab.de/fehlerhafte-chip-oberflaeche-ab-werk-bei-einer-radeon-rx-9070xt-extreme-hotspot-temperaturen-und-ursachenforschung-zum-pitting/
Und diese Kritik von Igor gibts da völlig zu recht! Solche Hotspot Temperaturen sind alles andere, nur nicht normal. Das Problem was ich bei PNY sehe... die extrem hohen VRM-Temps kriegt man gar nicht mit. Wenn die innerhalb der Garantiezeit Hops geht hast noch Glück gehabt. Geht die später Hops weil weniger gedaddelt wurde (sprich weniger Betriebsstunden mit hohen VRM-Temps) heißt es dann Pech gehabt.

RoughNeck
2025-09-03, 17:01:48
Deswegen meiden und fertig, auch wenn ich Igor des Öfteren kritisch sehe (zuletzt mit den lächerlichen Lüfter oder Wakü Block Tests).

robbitop
2025-09-03, 17:19:42
Dass das ein gewaltiger Sprung ist, das verneine ich ja nicht. Nur hatte man mit Ampere praktisch das Gleiche, was man mit RDNA4 jetzt auch hat, nur halt 5 Jahre früher. AMD hat jetzt vollständig aufgeschlossen. Und ja, es gibt Dinge wie DP2.1, die hat Ampere nicht. Das gab es damals halt nicht. Andere Dinge wie H.264-Encoder sind erst mit RDNA4 gut geworden. Ampere konnte das schon 2020 etc. Ist halt bissl frustrierend, dass AMD mit einem so gewaltigen Abstand hinterher dackelt. Einiges können sie zwar durch brute force liefern, nur zieht das wiederum viel Strom. Und RDNA4 zeigt auch, dass sie es können wenn sie wollen. Es fehlt aber irgendwie am Wollen. Und ich kann mir auch gut vorstellen, dass sie das deshalb nicht wollen weil man das auf Konsolen nicht so wirklich braucht. Denn da kann man für eine einzige Hardware sehr gut optimieren.
Ich finde den Vergleich aber verzerrt, da Blackwell aus der Sicht auch nichts Neueres hat. Der Vergleich mit Ampere wirkt als wenn wir es mit einer uArch zu tun haben, die gerade mal mit einer 2020 uArch von Nvidia mithalten kann. Und dabei tut sie das auch mit der 2025 uArch von Nvidia. Also wenn du schon mit Ampere negativ vergleichen willst, müsstest du, damit kein bias entsteht auch Blackwell (und Ada) inkludieren. Ansonsten liest es sich so als wenn du RDNA4 übermäßig schlecht darstellen willst.

Und man muss konstatieren, dass AMD nur ein Bruchteil von Nvidias Resources hat und dennoch hält man mit der neusten uArch mit. Ich finde nicht, dass das fehlenden Willen zeigt. Das muss erstmal einer schaffen, mit Nvidia mitzuhalten bei einem Bruchteil der resources.

robbitop
2025-09-03, 17:23:19
Blackwell zeigt doch auch schon wieder Anzeichen, dass nVidia den Software/Featurevorsprung nicht hergeben wird. RR ist vielleicht nicht weit verbreitet, man konnte es aber schon deutlich verbessern in der Zeit am Markt und vor allem steckt es immerhin in Spielen, während Redstone erstmal irgendwann erscheinen muss.
Reflex und FG sind nach wie vor deutlich häufiger implementiert als FSR FG (letzteres hat zudem nach wie vor Probleme mit dem Framepacing, auch hier hat Blackwell ein neues Frame Pacing in Hardware eingeführt). MFG hat AMD bisher nicht, auch dazu werden sie wohl auf ein KI-Modell umstellen müssen.
Mit nVidia kann man in vielen Titeln (und in praktisch allen Titeln mit 3rd-Party-Tools) DLSS bei bis zu fünf Jahre alten Titeln enorm leicht deutlich aufwerten, während DLSS weiterhin häufiger als FSR implementiert wird.
Dass man im Treiber die Hardware nicht tunen kann, ist schade, dennoch habe ich Curve-UV am Ende mehr vermisst als eine Treiber-GUI dafür.

Ist großartig, dass FSR4 so gut geworden ist, auch für die kommenden Konsolen, aber sie hängen dennoch immer noch locker ein, zwei Jahre hinterher. Was die Verbreitung in PC-Spielen angeht noch mehr.
Insofern ist es eher das bare minimum, als dass es Gründe wären, eine Radeon zu kaufen.

Und vermutlich wird nVidia spätestens mit RTX 6000 mit der nächsten DLSS-Evolution ankommen, wie auch immer die aussehen wird.

Volle Zustimmung, dass Nvidia mit der Software schneller war und besser aufgestellt ist. Aber hier wurde Ampere mit RDNA4 (also Hardware) verglichen. :)
Und klar ist DLSS SR/FG/RR weiter verbreitet, da man hier einfach eher angefangen hat. AMD hächelt hinterher. Seit kurzem aber mit guten Resultaten - mal schauen ob Redstone mit RR und MFG mithalten kann. Ab dann ist es auch nicht mal mehr ein AMD Feature was fehlt sondern "nur" die Verbreitung in Spielen was noch weniger mit RDNA4 zu tun hat (aber extrem wichtig ist).

Ich stimme den Argumenten absolut zu (weshalb ich mich am Ende auch für eine 5070ti entschieden habe). Aber aus HW Sicht ist RDNA4 IMO nicht so kritisierbar wie es bei Extremes Vergleich klang. Man sollte es so wie du es getan hast differenziert darstellen. :)

Wer technisch versiert ist, kann dank Optiscaler (was nochmal einen ordentlichen Sprung gemacht hat in der Kompatibilität) schon doch einen Großteil des Nachteils der Verbreitung umgehen und in vielen Spielen wo es DLSS gibt, auch FSR4 injecten. Wahrscheinlich wird das dann auch für Redstone gelten.

Der_Korken
2025-09-03, 17:25:39
Und man muss konstatieren, dass AMD nur ein Bruchteil von Nvidias Resources hat und dennoch hält man mit der neusten uArch mit. Ich finde nicht, dass das fehlenden Willen zeigt. Das muss erstmal einer schaffen, mit Nvidia mitzuhalten bei einem Bruchteil der resources.

Wobei ich schon das Gefühl habe, dass Nvidia mit Blackwell sandbagging betrieben hat. Die haben gegenüber Ada nicht mehr gemacht als nötig, um vorne zu bleiben. Vielleicht haben sie RDNA4 sogar noch deutlich unterschätzt, da RDNA3 ne ziemliche Gurke war.

robbitop
2025-09-03, 17:28:01
Wobei ich schon das Gefühl habe, dass Nvidia mit Blackwell sandbagging betrieben hat. Die haben gegenüber Ada nicht mehr gemacht als nötig, um vorne zu bleiben. Vielleicht haben sie RDNA4 sogar noch deutlich unterschätzt, da RDNA3 ne ziemliche Gurke war.
Den Eindruck hab ich auch. Glück für AMD. ^^

dargo
2025-09-03, 17:32:21
Wobei ich schon das Gefühl habe, dass Nvidia mit Blackwell sandbagging betrieben hat. Die haben gegenüber Ada nicht mehr gemacht als nötig, um vorne zu bleiben. Vielleicht haben sie RDNA4 sogar noch deutlich unterschätzt, da RDNA3 ne ziemliche Gurke war.
Naja... ich finde diese Einschätzung schon etwas gewagt. Die Pläne für ein neues GPU-Design liegen sicherlich schon länger in der Schublade als 4 Jahre. Wobei du hier glaube ich sogar nur ~2,x Jahre berücksichtigst. Also Release RDNA3 und Release Blackwell. So kurzfristig kannst du nicht mal eben deine Pläne komplett umkrempeln.

Ex3cut3r
2025-09-03, 18:10:14
Und man muss konstatieren, dass AMD nur ein Bruchteil von Nvidias Resources hat und dennoch hält man mit der neusten uArch mit. Ich finde nicht, dass das fehlenden Willen zeigt. Das muss erstmal einer schaffen, mit Nvidia mitzuhalten bei einem Bruchteil der resources.

Klar, absolut. RDNA 4 ist wirklich nicht schlecht, auf jeden Fall besser als RDNA 3. Aber bei AMD scheint es immer ein Auf und Ab zu geben: mal schwächer, dann wieder stark, dann erneut schwach. Auf lange Sicht bringt dir so eine Achterbahnfahrt aber keinen echten Erfolg.

dargo
2025-09-03, 18:19:39
Klar, absolut. RDNA 4 ist wirklich nicht schlecht, auf jeden Fall besser als RDNA 3. Aber bei AMD scheint es immer ein Auf und Ab zu geben: mal schwächer, dann wieder stark, dann erneut schwach. Auf lange Sicht bringt dir so eine Achterbahnfahrt aber keinen echten Erfolg.
Das ist doch wohl jedem klar. Nur ein langfristiger Druck führt letztendlich zum Erfolg. Nur frage ich mich dabei ständig wie soll das ablaufen? AMD bringt demnächst einen 600W Ofen und alle klatschen? Ich finde das einfach nur absurd die neue Klasse mit gigantischen 750mm² zu bringen mit wahnsinnigen Powerbudgets. Noch lächerlicher wird das ganze wenn man den Aufwand dabei betrachtet wieviel Material da bei den AIBs anfällt um den Rotz thermisch unter Kontrolle zu halten, ohne einen Hörschaden zu bekommen, was wiederum das Gesamtkonstrukt weiter verteuert. Und was steckt eigentlich hinter dieser Taktik so eine riesen Lücke zwischen 750mm² und 379mm² zu lassen? Warum keine SKU dazwischen mit bsw. noch halbwegs bezahlbaren ~500-550mm² bringen? Ist die Skalierung nach oben wirklich dermaßen schlecht geworden, dass man sich nur noch mit riesen Dies, gepaart mit hirnverbrannten Powertargets noch spürbar absetzen kann?

RoughNeck
2025-09-03, 18:58:42
In der Position welche AMD inne hat macht es auch keinen Sinn einen Monster Chip zu bringen um es mit der 4090 / 5090 aufnehmen zu können. Dafür hat AMD einfach zu wenig Marktanteile und der Teil welcher bereit ist deutlich über 1000€ zu bezahlen greift zu Nvidia.
Da müsste der Chip schon deutlich mehr leisten als eine 5090 und das sehe ich aktuell und in naher Zukunft nicht bei AMD, auf keinen Gebiet.

Da wo sie sich aktuell positioniert haben, da verdient man auch Geld und kann vielleicht Nvidia das ein oder andere Prozent an Marktanteil streitig machen.

Slipknot79
2025-09-03, 23:44:14
Und das von einem Technikfeind, der von seinem Lieblingshersteller nichtmal die neueste Generation besitzt. Schämst du dich etwa nicht?

Nein, ich bin ja nicht mal das Thema, habe ja nicht zu den aktuell dicken Gaming-Verkaufszahlen von Lederjacke beigetragen.
Die 5090 hat ohnehin die selben features wie die 4090. Ich sehe da keinen Unterschied, schon gar nicht im wichtigsten feature, dem performance-plus von 30%.
Für jemanden (und somit zurück zum Thema) der von einer Ampere oder darunter kommt, sieht das natürlich wieder anders aus. Der can auf 4090 oder 5090 wechseln, ist ja ohnehin das selbe.

dargo
2025-09-04, 10:48:53
Thema Undervolting... nach vielen Spielstunden in TLOU1 hat sich herausgestellt, dass die -50mV bei der Hellhound XT noch etwas zu nah an der Stabilitätsgrenze waren. Nun bin ich bei -45mV, -500Mhz und max. 261W. Ich denke -45mV bis -40mV dürften langfristig passen. Schauen wir mal. :)

Hakim
2025-09-04, 10:53:36
Bei -40 und 260W verlierst du aber schon Leistung gegenüber Stock oder?

horn 12
2025-09-04, 10:56:57
Kaum, eher gleich schnell wie Stock,- und sonst 2% langsamer!

dargo
2025-09-04, 11:23:10
Bei -40 und 260W verlierst du aber schon Leistung gegenüber Stock oder?
Bin ja erstmal mit -45mV unterwegs. :) Bei -40mV sind es ganze 0,2% weniger, oder Messschwankung. :tongue:

Stock
https://i.postimg.cc/YjvjJDXQ/Cyberpunk2077-2025-09-04-11-17-25-005.jpg (https://postimg.cc/YjvjJDXQ)

-40mV, -500Mhz, max. 261W, Fasttimings
https://i.postimg.cc/18kKqNfj/Cyberpunk2077-2025-09-04-11-11-07-584.jpg (https://postimg.cc/18kKqNfj)

Rentner
2025-09-04, 13:10:37
261 Watt sind -17% PT?
Meine läuft jetzt schon eine ganze Weile stabil mit -65mV, -350MHz und -15%PT.
Was dann ca. 270Watt bedeutet (OC-Bios)
Also mit ein bisschen mehr PT kann man ihr mehr Stabilität einhauchen, aber du willst ja lieber auf 250Watt runter :cool: :wink:

dargo
2025-09-04, 13:38:57
261 Watt sind -17% PT?

-14% hier mit dem Silent Bios.


Meine läuft jetzt schon eine ganze Weile stabil mit -65mV, -350MHz und -15%PT.
Was dann ca. 270Watt bedeutet (OC-Bios)
Also mit ein bisschen mehr PT kann man ihr mehr Stabilität einhauchen, aber du willst ja lieber auf 250Watt runter :cool: :wink:
Ich kann diesen Zusammenhang nicht bestätigen, dass mehr freigegebenes PT mehr negatives Poweroffset erlaubt. Am konkreten Beispiel heißt das... ein Ratchet und Clank crasht mir mit -60mV, egal ob mein PT bei 261W oder 270W liegt.

Rentner
2025-09-04, 13:54:38
Hab das in Hogwarts Legacy bemerkt. Was, wie ich finde, sehr anfällig ist.
Kann also wirklich auch nur am Spiel liegen.
Seitdem ich auf ~270Watt bin habe ich keine Abstürze mehr gehabt

dargo
2025-09-04, 14:29:52
Wir spielen scheinbar nicht die selben Spiele, deshalb fällt es mir schwer da was zu vergleichen. :) Du verwendest aber das Performancebios. Hoffen wir mal, dass Powercolor mit diesem Bios keine angehobene V/F-Kurve verwendet. Ich hoffe du verstehst worauf ich damit hinaus will. :) Wenn ich etwas mehr Zeit finde könnte ich das mal untersuchen ob beim Performancebios @304W (manueller Eingriff im Treiber bei PT) exakt die gleichen Frequenzen und Spannungen anliegen wie beim Silentbios @304W.

Rentner
2025-09-04, 17:48:50
Hogwarts Legacy ist vom Spielprinzip her das Gleiche wie CP2077, nur jugendfrei :wink: und , wie ich finde, in einer schöneren Umgebung. Die man sich vor allem besser merken kann ;D
Hab beide auf der Platte und bei CP komme ich nicht in die Gänge :rolleyes:

CP hat besseres RT. Wenn man RT bei HL einschaltet muss man Zeit mitbringen. Die Ladezeiten werden dann grausam und es wird noch instabiler.

Ich wollte das Silent Bios auch mal ausprobieren, bin nur zu faul

dargo
2025-09-04, 18:00:56
Ich glaube da hast du mich missverstanden. CP77 spiele ich nicht, das verwende ich nur zum Benchmarken weil der Benchmark sehr gut reproduzierbar ist. :D Ich spiele aber auch kein Hogwarts Legacy, aktuell nur TLOU1 und God of War. Später noch TLOU2.

Lange Rede, kurzer Sinn. Worauf ich damit hinaus wollte ist, dass ein Vergleich zwischen unseren Karten schwierig ist was UV angeht weil wir unterschiedliche Games mit dann unterschiedlichen Lasten spielen. Im Prinzip gibt es nur drei Möglichkeiten.
1. Dein Chip ist etwas besser
2. OC-Bios legt etwas mehr Spannung pro Taktstufe an, deshalb geht bei dir etwas mehr negativ Voltageoffset
3. Du spielst noch nicht lange genug oder nicht die Spiele die anspruchsvoller sind

Edit:
4. Sehe gerade du hast nur 1440p Monitor(e). Also spielst du anscheinend auch mit einer geringeren Pixellast was UV-Stabilität begünstigt. :)

Rentner
2025-09-04, 18:42:10
Punkt 3 stimmt schon :biggrin:
Ich habe mittlerweile nicht mehr den Nerv dazu stundenlang zu spielen, außer eben bei Hogwarts Legacy. Das hat mich nach langer Zeit mal wieder an den Rechner gefesselt.

Einen 4K-Monitor hole ich mir erst wenn OLEDs billiger sind :rolleyes:

Hier mal ein Vergleich Stock zu UV von mir. Spoiler: Kein Unterschied in der Leistung, nur beim Verbrauch, den Temps und den Lüftergeräuschen :biggrin:

Stock 317Watt(OC-Bios)
https://i.postimg.cc/d7zYWSh6/Cyberpunk-2077-Stock.jpg (https://postimg.cc/d7zYWSh6)

UV -65mV, -350Mhz, PT -15%, ~270Watt (OC-Bios)
https://i.postimg.cc/w184G827/Cyberpunk-2077-2025-09-04-18-20.jpg (https://postimg.cc/w184G827)

dargo
2025-09-04, 18:53:20
Punktlandung. ;) Deckt sich auch mit meinen Ergebnissen in etwa... 43W weniger (bei -40mV getestet, aktuell verwende ich -45mV) bei praktisch gleichen Frames. Wobei CP77 bei mir selbst -100mV überlebt. :ulol: Deshalb taugt das auch nicht als worst case für Stabilitätstests. :) Ich nehme das halt nur um zu schauen wie das favorisierte Profil vs. Stock abschneidet, mehr nicht.

Edit:
Aber wie gesagt bitte nicht vergessen... deine niedrigere Pixellast begünstigt definitiv etwas das Undervolting, sprich es geht etwas mehr. Du fährst da als Input 960p, ich 1440p in CP77 gerade. Zb. überlebt mein worst case in Ratchet und Clank keine -60mV mit 4k + FSR 4 Quality. 4k + FSR 4 Balanced läuft damit durch.

Rentner
2025-09-04, 19:09:23
Hab noch einen Lauf mit meinem derzeitigen max OC-Profil gemacht.
Da geht´s auf knapp 3200Mhz und auf 349Watt bei -70, Vram 2750Mhz und PT +10%
Da kommt eher mein kleiner 7700 langsam an seine Grenzen. CPU-Auslastung bis über 90% :rolleyes:
https://i.postimg.cc/47HhqdXc/Cyberpunk-2077-2025-volle-pulle.jpg (https://postimg.cc/47HhqdXc)

Stimmt schon, der CP-Bench läuft schon sehr stabil. Wenn es abkackt, dann wenn der flyby nach draußen kommt und über die Pfütze fliegt

dargo
2025-09-04, 19:14:08
Für 6% mehr Leistung 29% bzw. 79W mehr rausballern finde ich keinen guten Deal. Aber gut... das bewertet jeder anders.

Rentner
2025-09-04, 19:31:11
Für 6% mehr Leistung 29% bzw. 79W mehr rausballern finde ich keinen guten Deal. Aber gut... das bewertet jeder anders.
Ist ja nicht mein Daily-Profil. Nur zum benchen und gucken was geht :wink:
Temperaturen würden bei längerem spielen bei Hot-Spot und Speicher weit über 90° gehen. Das will man nicht. Da kommt dann auch der super Kühler der Hellhound nicht mehr so richtig mit

dargo
2025-09-04, 19:59:24
Jo... bei 350W Heizung braucht der dann schon gut Drehzahl.

Bandit3644
2025-09-05, 06:07:05
Meine 9070XT läuft mit den Einstellungen absolut stabil bei 258 Watt. Es gab in vielen Stunden noch kein Absturz oder ähnliches.

https://i.postimg.cc/SNgZx4Y0/1.png (https://postimg.cc/Vdb9K3F4)