Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 9070 & 9070 XT Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 [10]

Hochzeit2
2025-09-03, 14:55:46
Nur hatte man mit Ampere praktisch das Gleiche, was man mit RDNA4 jetzt auch hat, nur halt 5 Jahre früher.

Ab welchen Verlogenheitsgrad hat das Konsequenzen für 3DC Angestellte?

Lurtz
2025-09-03, 14:58:22
In der Hinsicht hat sich aber bis zu Blackwell auch nicht viel geändert oder?
Das scheint ein sehr positives Licht auf Ampere (und IMO auch auf Turing) und ein sehr negatives auf RDNA3 (und auch RDNA2). Aber nicht unbedingt ein sehr positives auf Blackwell. Quasi alles was Blackwell macht ist Software.
Aber der Vergleich war ja Blackwell vs RDNA4 - also uArch vs uArch und nicht Software vs Software.
Bei letzterem stimmt es (bis zum Release von Redstone mindestens) allerdings. Aber auch da muss man konstatieren, dass AMD wirklich große Schritte gemacht hat. :)
Blackwell zeigt doch auch schon wieder Anzeichen, dass nVidia den Software/Featurevorsprung nicht hergeben wird. RR ist vielleicht nicht weit verbreitet, man konnte es aber schon deutlich verbessern in der Zeit am Markt und vor allem steckt es immerhin in Spielen, während Redstone erstmal irgendwann erscheinen muss.
Reflex und FG sind nach wie vor deutlich häufiger implementiert als FSR FG (letzteres hat zudem nach wie vor Probleme mit dem Framepacing, auch hier hat Blackwell ein neues Frame Pacing in Hardware eingeführt). MFG hat AMD bisher nicht, auch dazu werden sie wohl auf ein KI-Modell umstellen müssen.
Mit nVidia kann man in vielen Titeln (und in praktisch allen Titeln mit 3rd-Party-Tools) DLSS bei bis zu fünf Jahre alten Titeln enorm leicht deutlich aufwerten, während DLSS weiterhin häufiger als FSR implementiert wird.
Dass man im Treiber die Hardware nicht tunen kann, ist schade, dennoch habe ich Curve-UV am Ende mehr vermisst als eine Treiber-GUI dafür.

Ist großartig, dass FSR4 so gut geworden ist, auch für die kommenden Konsolen, aber sie hängen dennoch immer noch locker ein, zwei Jahre hinterher. Was die Verbreitung in PC-Spielen angeht noch mehr.
Insofern ist es eher das bare minimum, als dass es Gründe wären, eine Radeon zu kaufen.

Und vermutlich wird nVidia spätestens mit RTX 6000 mit der nächsten DLSS-Evolution ankommen, wie auch immer die aussehen wird.

Tesseract
2025-09-03, 14:59:31
Ne, ist reiner Zufall. Kannst aber auch Karten mit wenig Verbrauch und nervigem Surren haben. Wobei man da mit Nvidia wenigstens noch Curve-UV als sehr effektive Linderungsmaßnahme hat.
es kann unterschiede durch fertigungstoleranzen geben aber es ist definitiv nicht "reiner zufall" sondern teil vom acoustic engineering.

https://youtu.be/nwtPrG14uQk?t=144

La Junta
2025-09-03, 15:16:38
Ich habe mein NT gewechselt vor paar Tagen und mein coil whine ist komplett weg....
Ist zwar 1ne 4090er, aber ich dachte immer das NT hätte nur eine Nebenrolle beim fiepen, bei mir hat es jedoch nur am NT gelegen.
habe von 1nem 9 Jährigen HM850i aufs neue 2025er Corsair HM1200i gewechselt.
Und selbt mein Idle Verbrauch ging um ca5-7W runter, obwohl beide Platinum zertifiziert sind.

aufkrawall
2025-09-03, 15:18:47
es kann unterschide durch fertigungstoleranzen geben aber es ist definitiv nicht "reiner zufall" sondern teil vom acoustic engineering.

https://youtu.be/nwtPrG14uQk?t=144
Ich habe abartige Unterschiede zwischen den gleichen Modellen am selben Netzteil gesehen. Ich weiß nicht, wie man da den Kaufprozess als etwas anders als Trial & Error bezeichnen kann.

Langlay
2025-09-03, 15:43:37
Ich habe mein NT gewechselt vor paar Tagen und mein coil whine ist komplett weg....



Sowas ähnliches hab ich auch schon erlebt, ne Karte die bei mir gut gezirpt hat, war bei meiner Frau fast garnichts. Und wie haben quasi das gleiche System (Meine Frau mit 7800X3D und 4080)

dargo
2025-09-03, 16:11:14
das ist normal aber das aus dem gehäuse zu hören ist extrem, besonders bei frequenzen die eigentlich nicht gut propagieren.

Wie gesagt... ich hatte schon alles mögliche hier von kaum vorhanden über so lala bis störend laut. Wenn Leute von Spulengeräuschen berichten dann tappt man mit solchen Aussagen immer im Dunkeln weil die Lautstärke von diesen Geräuschen stark variiert. Ob dafür jetzt ein ungünstiges PCB-Design, eine ungünstige Kombination aus NT und Graka verantwortlich ist lasse ich erstmal offen. Es gibt dafür keine stichhaltigen Beweise bisher. Dennoch finde ich es ist höchste Zeit, dass die Hersteller dieses nervige Problem endlich mal aus der Welt schaffen. Man liest immer wieder bei Userbewertungen von Spulenfiepen/Spulenrasseln. Auch einige Reviewer weisen darauf hin bei manchen Exemplaren. So rar scheint also das Problem nicht zu sein.


bist du sicher dass das nicht über die gehäusewand geleitet wird wo (dämm)gummi oder ähnliches mehr bringen würde als weniger öffnungen?

Die Spulengeräusche kommen eindeutig von den Grafikkarten.


Mit nVidia kann man in vielen Titeln (und in praktisch allen Titeln mit 3rd-Party-Tools) DLSS bei bis zu fünf Jahre alten Titeln enorm leicht deutlich aufwerten, während DLSS weiterhin häufiger als FSR implementiert wird.

Wo ist da jetzt der große Vorteil? Ich kann überall FSR 4 haben wo DLSS implementiert ist. Ok, außer bei Vulkan vorerst was eh kaum benutzt wird. MP-Titel würde ich jetzt persönlich auch sicherheitshalber rausnehmen. Für mich allerdings kein Nachteil da ich nichts im MP seit vielen Jahren spiele.

Ich habe abartige Unterschiede zwischen den gleichen Modellen am selben Netzteil gesehen. Ich weiß nicht, wie man da den Kaufprozess als etwas anders als Trial & Error bezeichnen kann.
Eben... du wechselst auch öfter die Karten, hast da sicherlich eine bessere Übersicht. Deshalb stemple ich das mittlerweile als reinen Zufall ab ob Spulengeräusche passen (nerven nicht aus einem geschlossenen Gehäuse) oder nicht.

dargo
2025-09-03, 16:22:59
del

Der_Korken
2025-09-03, 16:40:22
Liegt auch an deren Kunden. AMD-Kunden sind extrem lustlos hinsichtlich technischen Fortschritts. Wird konsequent nicht supportet. Immer eine Generation hinterher, Features von gestern.
Hier macht Lederjacke alles richtig und hat richtig erkannt: Wer das Hobby liebt und sofort dabei sein will, wird Nvidia-Karten kaufen.
Wer es hasst, der kauft AMD. (y)
Die meisten mögen aber ihr Hobby, zum Glück. (y)

Und das von einem Technikfeind, der von seinem Lieblingshersteller nichtmal die neueste Generation besitzt. Schämst du dich etwa nicht?

ich habe nicht explizit für coilwhine recherchiert aber achte immer auf solide designs, das spielt wahrscheinlich eine große rolle, besonders bei netzteilen die man wahrscheinlich 10+ jahre verwendet und es wenig sinn macht ein paar euro zu sparen.


Wie aufkrawall schon geschrieben hat, ist und bleiben Spulengeräusche für mich eine komplette Lotterie. Ich hatte zu Release einen Thread im Luxx verfolgt, wo diverse Leute ihre (9070XT-)Modelle gepostet haben und wie dort die Geräuschkulisse der Spulen ist. Es gab einige starke Trends, z.B. dass die Nitro quasi immer krächzt, aber immer wieder auch Ausreißer. Die Hellhound wurde von anderen als lautlos betitelt, aber ich habe eindeutiges Brummen. Je höher das Powerlimit, desto lauter, aber komischerweise nicht in jedem Spiel gleich und in z.B. Furmark gar nicht, obwohl das heizt wie bolle. Netzteil-Wechsel hat absolut null gebracht (von bequiet E10 500W auf Corsair SF750, also anderer Hersteller, 8 Jahre Altersunterschied, Multirail vs Singlerail). Von der RX5700 hatte ich drei Karten da, alle haben auf ihre eigene Weise gebrummt, vor allem auch alle im Idle, wenn man z.B. ein Fenster verschoben oder gescrollt hat (interessanterweise unter Linux weniger als unter Windows). Für mich ist das dermaßen random, dass ich nicht erkenne, wie man hier durch vorherige Recherche verhindern will, dass die gekaufte Karte Geräusche macht.

---

Bezüglich der Preis-Diskussion tu ich mir immer mit den angebotenen Modellen schwer. Bei AMD ist die Auswahl relativ überschaubar, dafür gibt es mit der Pulse oder Hellhound zwei Modelle, die i.d.R. eher am unteren Ende der Preisspanne liegen und die man normalerweise blind kaufen kann, wenn man keine Sonderwünsche hat. Aktuell sind die ganzen XFX-Karten sehr günstig, aber selbst die sind durchaus brauchbar bis auf die schlechte Default-Lüfterkurve.

Bei Nvidia hatte ich, wenn ich zwischenzeitlich mal nach Modellen geschaut habe, immer jede Menge Schund gesehen, der in den Preislisten weit oben steht. D.h. Dual-Slot-Karten mit zwei Lüftern, die niemals 250W+ bei vernünftiger Lautstärke abführen können. Oder Karten, wo in den Bewertungen dann steht, dass die Lüfter bei 60°C mit 1300RPM anlaufen und bei 59°C wieder ausgehen (afaik Gigabyte). Kann aber auch an mir liegen, weil ich mit vielen Nvidia-Partnern (Gainward, KFA, Inno3D) null Erfahrungen habe. Bei den dicken Schiffe á la Strix, Suprim, Aorus und co. ist man natürlich i.d.R. auf der sicheren Seite, aber die kosten schnell mal 200€ als die "Billig-Modelle".

tl;dr: Einfach bei geizhals.de den günstigsten Preis des günstigen Modells zu nehmen, verzerrt imho zugunsten von Nvidia.

dargo
2025-09-03, 16:49:33
Einfach bei geizhals.de den günstigsten Preis des günstigen Modells zu nehmen, verzerrt imho zugunsten von Nvidia.
Vor allem wer will schon sowas kaufen mit eingebauten Verfallsdatum von 1-2 Jahren je nach Daddelzeit.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13806219&postcount=188

Afaik spricht dort Igor von unter einem Jahr bei täglich 4h Spielzeit oder so ähnlich.

Und das von einem Technikfeind, der von seinem Lieblingshersteller nichtmal die neueste Generation besitzt. Schämst du dich etwa nicht?

Verstehe ich auch nicht so wirklich. Featuremäßig ist ne RTX 4090 doch heute komplett lost. ;)

dildo4u
2025-09-03, 16:54:10
Igor erzeugt gerne Clicks mit solchen Artikeln natürlich gibt es überall Gurken.


https://www.igorslab.de/fehlerhafte-chip-oberflaeche-ab-werk-bei-einer-radeon-rx-9070xt-extreme-hotspot-temperaturen-und-ursachenforschung-zum-pitting/

Hakim
2025-09-03, 16:55:34
tl;dr: Einfach bei geizhals.de den günstigsten Preis des günstigen Modells zu nehmen, verzerrt imho zugunsten von Nvidia.

Ich versuche oft eine bekannte Einsteigerkarte die es bei einem Hersteller für beide gibt zu picken um dann ungefähr direkt zu vergleichen. Oft die Asus Prime reihe, derzeit als 9070XT 673€, als 5070Ti 799€, 127€ Unterschied.

dargo
2025-09-03, 16:59:59
Igor erzeugt gerne Clicks mit solchen Artikeln natürlich gibt es überall Gurken.


https://www.igorslab.de/fehlerhafte-chip-oberflaeche-ab-werk-bei-einer-radeon-rx-9070xt-extreme-hotspot-temperaturen-und-ursachenforschung-zum-pitting/
Und diese Kritik von Igor gibts da völlig zu recht! Solche Hotspot Temperaturen sind alles andere, nur nicht normal. Das Problem was ich bei PNY sehe... die extrem hohen VRM-Temps kriegt man gar nicht mit. Wenn die innerhalb der Garantiezeit Hops geht hast noch Glück gehabt. Geht die später Hops weil weniger gedaddelt wurde (sprich weniger Betriebsstunden mit hohen VRM-Temps) heißt es dann Pech gehabt.

RoughNeck
2025-09-03, 17:01:48
Deswegen meiden und fertig, auch wenn ich Igor des Öfteren kritisch sehe (zuletzt mit den lächerlichen Lüfter oder Wakü Block Tests).

robbitop
2025-09-03, 17:19:42
Dass das ein gewaltiger Sprung ist, das verneine ich ja nicht. Nur hatte man mit Ampere praktisch das Gleiche, was man mit RDNA4 jetzt auch hat, nur halt 5 Jahre früher. AMD hat jetzt vollständig aufgeschlossen. Und ja, es gibt Dinge wie DP2.1, die hat Ampere nicht. Das gab es damals halt nicht. Andere Dinge wie H.264-Encoder sind erst mit RDNA4 gut geworden. Ampere konnte das schon 2020 etc. Ist halt bissl frustrierend, dass AMD mit einem so gewaltigen Abstand hinterher dackelt. Einiges können sie zwar durch brute force liefern, nur zieht das wiederum viel Strom. Und RDNA4 zeigt auch, dass sie es können wenn sie wollen. Es fehlt aber irgendwie am Wollen. Und ich kann mir auch gut vorstellen, dass sie das deshalb nicht wollen weil man das auf Konsolen nicht so wirklich braucht. Denn da kann man für eine einzige Hardware sehr gut optimieren.
Ich finde den Vergleich aber verzerrt, da Blackwell aus der Sicht auch nichts Neueres hat. Der Vergleich mit Ampere wirkt als wenn wir es mit einer uArch zu tun haben, die gerade mal mit einer 2020 uArch von Nvidia mithalten kann. Und dabei tut sie das auch mit der 2025 uArch von Nvidia. Also wenn du schon mit Ampere negativ vergleichen willst, müsstest du, damit kein bias entsteht auch Blackwell (und Ada) inkludieren. Ansonsten liest es sich so als wenn du RDNA4 übermäßig schlecht darstellen willst.

Und man muss konstatieren, dass AMD nur ein Bruchteil von Nvidias Resources hat und dennoch hält man mit der neusten uArch mit. Ich finde nicht, dass das fehlenden Willen zeigt. Das muss erstmal einer schaffen, mit Nvidia mitzuhalten bei einem Bruchteil der resources.

robbitop
2025-09-03, 17:23:19
Blackwell zeigt doch auch schon wieder Anzeichen, dass nVidia den Software/Featurevorsprung nicht hergeben wird. RR ist vielleicht nicht weit verbreitet, man konnte es aber schon deutlich verbessern in der Zeit am Markt und vor allem steckt es immerhin in Spielen, während Redstone erstmal irgendwann erscheinen muss.
Reflex und FG sind nach wie vor deutlich häufiger implementiert als FSR FG (letzteres hat zudem nach wie vor Probleme mit dem Framepacing, auch hier hat Blackwell ein neues Frame Pacing in Hardware eingeführt). MFG hat AMD bisher nicht, auch dazu werden sie wohl auf ein KI-Modell umstellen müssen.
Mit nVidia kann man in vielen Titeln (und in praktisch allen Titeln mit 3rd-Party-Tools) DLSS bei bis zu fünf Jahre alten Titeln enorm leicht deutlich aufwerten, während DLSS weiterhin häufiger als FSR implementiert wird.
Dass man im Treiber die Hardware nicht tunen kann, ist schade, dennoch habe ich Curve-UV am Ende mehr vermisst als eine Treiber-GUI dafür.

Ist großartig, dass FSR4 so gut geworden ist, auch für die kommenden Konsolen, aber sie hängen dennoch immer noch locker ein, zwei Jahre hinterher. Was die Verbreitung in PC-Spielen angeht noch mehr.
Insofern ist es eher das bare minimum, als dass es Gründe wären, eine Radeon zu kaufen.

Und vermutlich wird nVidia spätestens mit RTX 6000 mit der nächsten DLSS-Evolution ankommen, wie auch immer die aussehen wird.

Volle Zustimmung, dass Nvidia mit der Software schneller war und besser aufgestellt ist. Aber hier wurde Ampere mit RDNA4 (also Hardware) verglichen. :)
Und klar ist DLSS SR/FG/RR weiter verbreitet, da man hier einfach eher angefangen hat. AMD hächelt hinterher. Seit kurzem aber mit guten Resultaten - mal schauen ob Redstone mit RR und MFG mithalten kann. Ab dann ist es auch nicht mal mehr ein AMD Feature was fehlt sondern "nur" die Verbreitung in Spielen was noch weniger mit RDNA4 zu tun hat (aber extrem wichtig ist).

Ich stimme den Argumenten absolut zu (weshalb ich mich am Ende auch für eine 5070ti entschieden habe). Aber aus HW Sicht ist RDNA4 IMO nicht so kritisierbar wie es bei Extremes Vergleich klang. Man sollte es so wie du es getan hast differenziert darstellen. :)

Wer technisch versiert ist, kann dank Optiscaler (was nochmal einen ordentlichen Sprung gemacht hat in der Kompatibilität) schon doch einen Großteil des Nachteils der Verbreitung umgehen und in vielen Spielen wo es DLSS gibt, auch FSR4 injecten. Wahrscheinlich wird das dann auch für Redstone gelten.

Der_Korken
2025-09-03, 17:25:39
Und man muss konstatieren, dass AMD nur ein Bruchteil von Nvidias Resources hat und dennoch hält man mit der neusten uArch mit. Ich finde nicht, dass das fehlenden Willen zeigt. Das muss erstmal einer schaffen, mit Nvidia mitzuhalten bei einem Bruchteil der resources.

Wobei ich schon das Gefühl habe, dass Nvidia mit Blackwell sandbagging betrieben hat. Die haben gegenüber Ada nicht mehr gemacht als nötig, um vorne zu bleiben. Vielleicht haben sie RDNA4 sogar noch deutlich unterschätzt, da RDNA3 ne ziemliche Gurke war.

robbitop
2025-09-03, 17:28:01
Wobei ich schon das Gefühl habe, dass Nvidia mit Blackwell sandbagging betrieben hat. Die haben gegenüber Ada nicht mehr gemacht als nötig, um vorne zu bleiben. Vielleicht haben sie RDNA4 sogar noch deutlich unterschätzt, da RDNA3 ne ziemliche Gurke war.
Den Eindruck hab ich auch. Glück für AMD. ^^

dargo
2025-09-03, 17:32:21
Wobei ich schon das Gefühl habe, dass Nvidia mit Blackwell sandbagging betrieben hat. Die haben gegenüber Ada nicht mehr gemacht als nötig, um vorne zu bleiben. Vielleicht haben sie RDNA4 sogar noch deutlich unterschätzt, da RDNA3 ne ziemliche Gurke war.
Naja... ich finde diese Einschätzung schon etwas gewagt. Die Pläne für ein neues GPU-Design liegen sicherlich schon länger in der Schublade als 4 Jahre. Wobei du hier glaube ich sogar nur ~2,x Jahre berücksichtigst. Also Release RDNA3 und Release Blackwell. So kurzfristig kannst du nicht mal eben deine Pläne komplett umkrempeln.

Ex3cut3r
2025-09-03, 18:10:14
Und man muss konstatieren, dass AMD nur ein Bruchteil von Nvidias Resources hat und dennoch hält man mit der neusten uArch mit. Ich finde nicht, dass das fehlenden Willen zeigt. Das muss erstmal einer schaffen, mit Nvidia mitzuhalten bei einem Bruchteil der resources.

Klar, absolut. RDNA 4 ist wirklich nicht schlecht, auf jeden Fall besser als RDNA 3. Aber bei AMD scheint es immer ein Auf und Ab zu geben: mal schwächer, dann wieder stark, dann erneut schwach. Auf lange Sicht bringt dir so eine Achterbahnfahrt aber keinen echten Erfolg.

dargo
2025-09-03, 18:19:39
Klar, absolut. RDNA 4 ist wirklich nicht schlecht, auf jeden Fall besser als RDNA 3. Aber bei AMD scheint es immer ein Auf und Ab zu geben: mal schwächer, dann wieder stark, dann erneut schwach. Auf lange Sicht bringt dir so eine Achterbahnfahrt aber keinen echten Erfolg.
Das ist doch wohl jedem klar. Nur ein langfristiger Druck führt letztendlich zum Erfolg. Nur frage ich mich dabei ständig wie soll das ablaufen? AMD bringt demnächst einen 600W Ofen und alle klatschen? Ich finde das einfach nur absurd die neue Klasse mit gigantischen 750mm² zu bringen mit wahnsinnigen Powerbudgets. Noch lächerlicher wird das ganze wenn man den Aufwand dabei betrachtet wieviel Material da bei den AIBs anfällt um den Rotz thermisch unter Kontrolle zu halten, ohne einen Hörschaden zu bekommen, was wiederum das Gesamtkonstrukt weiter verteuert. Und was steckt eigentlich hinter dieser Taktik so eine riesen Lücke zwischen 750mm² und 379mm² zu lassen? Warum keine SKU dazwischen mit bsw. noch halbwegs bezahlbaren ~500-550mm² bringen? Ist die Skalierung nach oben wirklich dermaßen schlecht geworden, dass man sich nur noch mit riesen Dies, gepaart mit hirnverbrannten Powertargets noch spürbar absetzen kann?

RoughNeck
2025-09-03, 18:58:42
In der Position welche AMD inne hat macht es auch keinen Sinn einen Monster Chip zu bringen um es mit der 4090 / 5090 aufnehmen zu können. Dafür hat AMD einfach zu wenig Marktanteile und der Teil welcher bereit ist deutlich über 1000€ zu bezahlen greift zu Nvidia.
Da müsste der Chip schon deutlich mehr leisten als eine 5090 und das sehe ich aktuell und in naher Zukunft nicht bei AMD, auf keinen Gebiet.

Da wo sie sich aktuell positioniert haben, da verdient man auch Geld und kann vielleicht Nvidia das ein oder andere Prozent an Marktanteil streitig machen.

Slipknot79
2025-09-03, 23:44:14
Und das von einem Technikfeind, der von seinem Lieblingshersteller nichtmal die neueste Generation besitzt. Schämst du dich etwa nicht?

Nein, ich bin ja nicht mal das Thema, habe ja nicht zu den aktuell dicken Gaming-Verkaufszahlen von Lederjacke beigetragen.
Die 5090 hat ohnehin die selben features wie die 4090. Ich sehe da keinen Unterschied, schon gar nicht im wichtigsten feature, dem performance-plus von 30%.
Für jemanden (und somit zurück zum Thema) der von einer Ampere oder darunter kommt, sieht das natürlich wieder anders aus. Der can auf 4090 oder 5090 wechseln, ist ja ohnehin das selbe.

dargo
2025-09-04, 10:48:53
Thema Undervolting... nach vielen Spielstunden in TLOU1 hat sich herausgestellt, dass die -50mV bei der Hellhound XT noch etwas zu nah an der Stabilitätsgrenze waren. Nun bin ich bei -45mV, -500Mhz und max. 261W. Ich denke -45mV bis -40mV dürften langfristig passen. Schauen wir mal. :)

Hakim
2025-09-04, 10:53:36
Bei -40 und 260W verlierst du aber schon Leistung gegenüber Stock oder?

horn 12
2025-09-04, 10:56:57
Kaum, eher gleich schnell wie Stock,- und sonst 2% langsamer!

dargo
2025-09-04, 11:23:10
Bei -40 und 260W verlierst du aber schon Leistung gegenüber Stock oder?
Bin ja erstmal mit -45mV unterwegs. :) Bei -40mV sind es ganze 0,2% weniger, oder Messschwankung. :tongue:

Stock
https://i.postimg.cc/YjvjJDXQ/Cyberpunk2077-2025-09-04-11-17-25-005.jpg (https://postimg.cc/YjvjJDXQ)

-40mV, -500Mhz, max. 261W, Fasttimings
https://i.postimg.cc/18kKqNfj/Cyberpunk2077-2025-09-04-11-11-07-584.jpg (https://postimg.cc/18kKqNfj)

Rentner
2025-09-04, 13:10:37
261 Watt sind -17% PT?
Meine läuft jetzt schon eine ganze Weile stabil mit -65mV, -350MHz und -15%PT.
Was dann ca. 270Watt bedeutet (OC-Bios)
Also mit ein bisschen mehr PT kann man ihr mehr Stabilität einhauchen, aber du willst ja lieber auf 250Watt runter :cool: :wink:

dargo
2025-09-04, 13:38:57
261 Watt sind -17% PT?

-14% hier mit dem Silent Bios.


Meine läuft jetzt schon eine ganze Weile stabil mit -65mV, -350MHz und -15%PT.
Was dann ca. 270Watt bedeutet (OC-Bios)
Also mit ein bisschen mehr PT kann man ihr mehr Stabilität einhauchen, aber du willst ja lieber auf 250Watt runter :cool: :wink:
Ich kann diesen Zusammenhang nicht bestätigen, dass mehr freigegebenes PT mehr negatives Poweroffset erlaubt. Am konkreten Beispiel heißt das... ein Ratchet und Clank crasht mir mit -60mV, egal ob mein PT bei 261W oder 270W liegt.

Rentner
2025-09-04, 13:54:38
Hab das in Hogwarts Legacy bemerkt. Was, wie ich finde, sehr anfällig ist.
Kann also wirklich auch nur am Spiel liegen.
Seitdem ich auf ~270Watt bin habe ich keine Abstürze mehr gehabt

dargo
2025-09-04, 14:29:52
Wir spielen scheinbar nicht die selben Spiele, deshalb fällt es mir schwer da was zu vergleichen. :) Du verwendest aber das Performancebios. Hoffen wir mal, dass Powercolor mit diesem Bios keine angehobene V/F-Kurve verwendet. Ich hoffe du verstehst worauf ich damit hinaus will. :) Wenn ich etwas mehr Zeit finde könnte ich das mal untersuchen ob beim Performancebios @304W (manueller Eingriff im Treiber bei PT) exakt die gleichen Frequenzen und Spannungen anliegen wie beim Silentbios @304W.

Rentner
2025-09-04, 17:48:50
Hogwarts Legacy ist vom Spielprinzip her das Gleiche wie CP2077, nur jugendfrei :wink: und , wie ich finde, in einer schöneren Umgebung. Die man sich vor allem besser merken kann ;D
Hab beide auf der Platte und bei CP komme ich nicht in die Gänge :rolleyes:

CP hat besseres RT. Wenn man RT bei HL einschaltet muss man Zeit mitbringen. Die Ladezeiten werden dann grausam und es wird noch instabiler.

Ich wollte das Silent Bios auch mal ausprobieren, bin nur zu faul

dargo
2025-09-04, 18:00:56
Ich glaube da hast du mich missverstanden. CP77 spiele ich nicht, das verwende ich nur zum Benchmarken weil der Benchmark sehr gut reproduzierbar ist. :D Ich spiele aber auch kein Hogwarts Legacy, aktuell nur TLOU1 und God of War. Später noch TLOU2.

Lange Rede, kurzer Sinn. Worauf ich damit hinaus wollte ist, dass ein Vergleich zwischen unseren Karten schwierig ist was UV angeht weil wir unterschiedliche Games mit dann unterschiedlichen Lasten spielen. Im Prinzip gibt es nur drei Möglichkeiten.
1. Dein Chip ist etwas besser
2. OC-Bios legt etwas mehr Spannung pro Taktstufe an, deshalb geht bei dir etwas mehr negativ Voltageoffset
3. Du spielst noch nicht lange genug oder nicht die Spiele die anspruchsvoller sind

Edit:
4. Sehe gerade du hast nur 1440p Monitor(e). Also spielst du anscheinend auch mit einer geringeren Pixellast was UV-Stabilität begünstigt. :)

Rentner
2025-09-04, 18:42:10
Punkt 3 stimmt schon :biggrin:
Ich habe mittlerweile nicht mehr den Nerv dazu stundenlang zu spielen, außer eben bei Hogwarts Legacy. Das hat mich nach langer Zeit mal wieder an den Rechner gefesselt.

Einen 4K-Monitor hole ich mir erst wenn OLEDs billiger sind :rolleyes:

Hier mal ein Vergleich Stock zu UV von mir. Spoiler: Kein Unterschied in der Leistung, nur beim Verbrauch, den Temps und den Lüftergeräuschen :biggrin:

Stock 317Watt(OC-Bios)
https://i.postimg.cc/d7zYWSh6/Cyberpunk-2077-Stock.jpg (https://postimg.cc/d7zYWSh6)

UV -65mV, -350Mhz, PT -15%, ~270Watt (OC-Bios)
https://i.postimg.cc/w184G827/Cyberpunk-2077-2025-09-04-18-20.jpg (https://postimg.cc/w184G827)

dargo
2025-09-04, 18:53:20
Punktlandung. ;) Deckt sich auch mit meinen Ergebnissen in etwa... 43W weniger (bei -40mV getestet, aktuell verwende ich -45mV) bei praktisch gleichen Frames. Wobei CP77 bei mir selbst -100mV überlebt. :ulol: Deshalb taugt das auch nicht als worst case für Stabilitätstests. :) Ich nehme das halt nur um zu schauen wie das favorisierte Profil vs. Stock abschneidet, mehr nicht.

Edit:
Aber wie gesagt bitte nicht vergessen... deine niedrigere Pixellast begünstigt definitiv etwas das Undervolting, sprich es geht etwas mehr. Du fährst da als Input 960p, ich 1440p in CP77 gerade. Zb. überlebt mein worst case in Ratchet und Clank keine -60mV mit 4k + FSR 4 Quality. 4k + FSR 4 Balanced läuft damit durch.

Rentner
2025-09-04, 19:09:23
Hab noch einen Lauf mit meinem derzeitigen max OC-Profil gemacht.
Da geht´s auf knapp 3200Mhz und auf 349Watt bei -70, Vram 2750Mhz und PT +10%
Da kommt eher mein kleiner 7700 langsam an seine Grenzen. CPU-Auslastung bis über 90% :rolleyes:
https://i.postimg.cc/47HhqdXc/Cyberpunk-2077-2025-volle-pulle.jpg (https://postimg.cc/47HhqdXc)

Stimmt schon, der CP-Bench läuft schon sehr stabil. Wenn es abkackt, dann wenn der flyby nach draußen kommt und über die Pfütze fliegt

dargo
2025-09-04, 19:14:08
Für 6% mehr Leistung 29% bzw. 79W mehr rausballern finde ich keinen guten Deal. Aber gut... das bewertet jeder anders.

Rentner
2025-09-04, 19:31:11
Für 6% mehr Leistung 29% bzw. 79W mehr rausballern finde ich keinen guten Deal. Aber gut... das bewertet jeder anders.
Ist ja nicht mein Daily-Profil. Nur zum benchen und gucken was geht :wink:
Temperaturen würden bei längerem spielen bei Hot-Spot und Speicher weit über 90° gehen. Das will man nicht. Da kommt dann auch der super Kühler der Hellhound nicht mehr so richtig mit

dargo
2025-09-04, 19:59:24
Jo... bei 350W Heizung braucht der dann schon gut Drehzahl.

Bandit3644
2025-09-05, 06:07:05
Meine 9070XT läuft mit den Einstellungen absolut stabil bei 258 Watt. Es gab in vielen Stunden noch kein Absturz oder ähnliches.

https://i.postimg.cc/SNgZx4Y0/1.png (https://postimg.cc/Vdb9K3F4)

Langlay
2025-09-05, 13:28:42
Meine 9070XT läuft mit den Einstellungen absolut stabil bei 258 Watt. Es gab in vielen Stunden noch kein Absturz oder ähnliches.

https://i.postimg.cc/SNgZx4Y0/1.png


Mit -350 und -70mV überlebt meine 9070XT keine 10 Minuten in Tarkov. Mit -500 und -70mV isset bis jetzt allerdings stabil.

Mr.Ice
2025-09-05, 15:36:25
Heut morgen hab ich gelesen das NV im Herbst 5070 Super/5080Super rausbringen will....

Kann man hier noch mit einer Antwort von AMD rechnen z.b 9080XT oder wollen die echt bis zur RDNA5 warten ?

dargo
2025-09-05, 15:38:35
Das ist der Review-Thread von N48. Der passende Speku-Thread für so ein Thema ist hier.
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=613470&page=462

dargo
2025-09-07, 12:20:58
Hmm... das Undervolting Thema wird wohl eine längere Geschichte. :tongue:

Heute ist mir TLOU auch mit -45mV gecrashed. Oder genauer gesagt es wird ein PC-Neustart mit dem Fehler 41 ausgelöst. Ich hatte ein wichtiges Thema bei dem Wechsel auf die RX 9070XT völlig vergessen. Meine CPU und der Speicher sind ebenfalls undervolted bzw. getuned. Mit der neuen Graka haben sich ja die Limits stärker Richtung CPU und Speicher verschoben. Kann also durchaus sein, dass dieser Neustarts in TLOU1 auf Kosten der CPU und/oder Speichertuning gehen. Bei TLOU1 wird die CPU auch deutlich stärker gefordert, das sieht man wunderbar am Stromverbrauch.

Lange Rede, kurzer Sinn. Habe die Graka wieder auf -50mV, -500Mhz, max. 261W gestellt und die CPU @Stock im Bios, den Arbeitsspeicher ebenfalls, hier dann nur XMP-Profil geladen. Damit schaue ich mir jetzt viele Spielstunden in TLOU1 an. Ist etwas blöd weil diese Neustarts eher random passieren. Einmal läuft TLOU1 1-2 Stunden am Stück einwandfrei und einmal dauerte es nur ganz kurz bis so ein Neustart kam. Könnte also etwas dauern bis ich den Fehler besser eingrenzen kann. Der 5800X3D gefällt mir thermisch aber @Stock überhaupt nicht. Das Ding läuft praktisch ständig mit 90-91°C und 90+W bis 100+W in TLOU1 mit entsprechenden Taktabsenkungen damit es nicht noch wärmer wird. Habe das Teil im Bios jetzt auf 90W begrenzt, das bringt immerhin 5-6°C weniger, eventuell gehe ich hier noch auf max. 85W runter.

Bei einer Sache bin ich mir auch noch unsicher... kann der Optiscaler Crashes mit Neustarts vom Rechner auslösen? Weil den nutze ich fast überall für FSR 4.

PS: was ich aber sicher sagen kann... Ratchet und Clank überlebt in der einen Szene immer noch keine -60mV selbst wenn die CPU/Speicher @Stock laufen. Hier ist der Fehler aber auch anders. Das Game crasht einfach nur mit einem Treiber Timeout ohne einen Neustart.

aufkrawall
2025-09-07, 12:30:01
Nutzt du immer noch VRAM-OC oder Fast Timings? Hatte dazu ja schon was gesagt. Ohne VRAM-Tuning sollte es eher nur zum normalen Treiber-Reset kommen.

dargo
2025-09-07, 12:40:31
Vram-OC nicht, nur Fasttimings. Aber wenn alleine Fasttimings für die Neustarts in TLOU1 verantwortlich wären wäre das wirklich etwas strange. Dabei spielt es keine Rolle ob der PC neustartet oder die Applikation ohne Neustart crashed, beides ist ja instabil. Ein N21 hatte nie Probleme mit Fasttimings gemacht. :uponder: Ich empfand das immer als einen mickrigen Eingriff. Aber gut... muss ja nichts für RDNA4 bedeuten. Ich schaue mir das erstmal längere Zeit mit CPU + RAM @Stock an, CPU dann halt mit weniger PPT. Ist ja trotzdem Stock V/F Curve. Ich hatte vorher auch viel an den sonstigen Spannungen bei der CPU runter gestellt (also nicht nur CO -30) um den Verbrauch auch in Idle zu senken. Wie gesagt... stärkere Limitsverschiebung Richtung CPU + hohe CPU-Last in TLOU1 könnten ein Indiz dafür sein, dass das nun mit der schnelleren Graka nicht mehr stabil ist. Reine Vermutung natürlich erstmal.

RoughNeck
2025-09-07, 13:17:11
Fehler 41 kommt eher von einer instabilen CPU, ist meine Erfahrung mit UV.

Daredevil
2025-09-07, 13:52:26
Ich hatte ein wichtiges Thema bei dem Wechsel auf die RX 9070XT völlig vergessen. Meine CPU und der Speicher sind ebenfalls undervolted bzw. getuned. Mit der neuen Graka haben sich ja die Limits stärker Richtung CPU und Speicher verschoben. Kann also durchaus sein, dass dieser Neustarts in TLOU1 auf Kosten der CPU und/oder Speichertuning gehen.
Wenn du CPU/RAM Veränderungen penibel mit dafür gebauten synthetisch forcierten Tests im Windows überprüft, sollte es eigentlich wenig Veränderung in der Art geben, die einen dann überrascht. Wenn man "GameStable" als Stable bezeichnet, kommt einem sowas dann natürlich entgegen, weil man keine Reproduzierbarkeit hat, wenn andere Komponenten den Zustand der Hauptkomponente beeinflussen.

Ich weiß jetzt nicht ob das der Fall ist, aber Temperaturunterschiede können natürlich auch Stabilität beeinflussen. Die Menge der Abwärme der GPU und auch Lüfterkonfiguration der neuen GPU können ein Unterschied im System machen, wenn es auf Kante genäht worden ist und die GPU schlicht nun an einen Punkt pustet, wo es sonst nur gewälzt hat. Ein Radiallüfter hat z.B. auch einen großen Effekt auf die NVME Temp wie 3 Axiallüfter. Da kann man mal testweise das Gehäuse auf machen oder wie gesagt synthetisch testen mit den richtigen Tools für die jeweilige Komponente. Oder irgendeine Komponente degradiert schon etwas, weswegen es die Spannung nicht mehr halten kann. Deswegen setze ich persönlich mittlerweile einfach einen großzügigen Puffer, weil es zwar irgendwo sicherlich Spaß macht, die Lebenszeit aber begrenzt ist. :D

dargo
2025-09-07, 15:39:12
Wenn man "GameStable" als Stable bezeichnet, kommt einem sowas dann natürlich entgegen, weil man keine Reproduzierbarkeit hat, wenn andere Komponenten den Zustand der Hauptkomponente beeinflussen.

Ich sehe darin jetzt kein Problem, dann wird eben CPU/RAM neu ausgelotet. Bis Zen7 X3D erscheint für ein Plattformwechsel dauert es noch ein wenig. :tongue: Ich hatte einfach völlig vergessen daran auch zu denken.

Fehler 41 kommt eher von einer instabilen CPU, ist meine Erfahrung mit UV.
Gut zu wissen, danke. Dann setze ich später zuerst mein RAM-Tuning wieder rein wenn ich sicher bin, dass es nicht an der Graka liegt. Wobei das RAM-Tuning bei nem X3D eh extrem wenig bringt, aber egal. :tongue: Ich hatte vorher übrigens das hier drin.
94082

Könnte auch sein, dass die vier Spannungen unter "UCLK" zu niedrig für die neue Graka sind. Aber das finde ich schon raus.

gedi
2025-09-07, 21:53:15
Mit 260w brauchst du nicht UVen, wenn du nur ein Profil hast.

dargo
2025-09-07, 22:38:47
Mit Stocksettings an der CPU und Stock RAM mit XMP-Profil hatte TLOU1 zwei Stunden am Stück keine Probleme gemacht. Dann habe ich weitere zwei Stunden TLOU1 mit diesen Settings gespielt inkl. CO -30 auf allen Cores, auch kein PC-Neustart. Graka weiterhin bei -50mV, -500Mhz und max. 261W.
94083

Das sieht bisher gut aus, ich behalte das erstmal so etwas länger. Im Prinzip habe ich jetzt nur dem SoC 12,5mV mehr gegönnt und die anderen drei Sachen @Auto gelassen. Wie schon vermutet war hier wahrscheinlich was bissel zu eng für die RX 9070XT eingestellt da die CPU jetzt mehr ackern muss, sprich... weniger Verschnaufpausen. Für heute aber genug gedaddelt jetzt. :freak:

Edit:
Hehe... heute TLOU1 angeschmissen und nach ca. 10-15 Minuten Freeze im Game mit den neuen Settings, wenige Sekunden später hat sich die Applikation geschlossen und kam entsprechende Fehlermeldung vom Game. Aber schon mal kein PC-Neustart mit Fehlercode 41, ich komme also der Sache näher. =) Da die anderen Spannungen @Auto stehen wirds wohl am SoC liegen. Der steht @Auto normalerweise auf 1000mV mit DDR4-3200. Ergo nochmal 12,5mV rauf auf 825mV und weiter schauen. :cool:

btw.
Wobei ich gerade sehe, dass CCD und IOD automatisch höher gehen sofern sie @Auto stehen wenn die Spannung vom SoC erhöht wird.
94087

Mit 812,5mV SoC lagen die noch bei 825mV. Ergo könnte es auch an den Spannungen von CCD und IOD liegen. Nicht unbedingt an SoC. :tongue:

dargo
2025-09-08, 22:51:14
Sieht wirklich danach aus, dass mit der neuen Karte nur der SoC etwas zu niedrig eingestellt war. VDDP kann weiterhin bei 700mV bleiben, CCD und IOD bei 800mV. SoC braucht irgendwas zwischen >825mV und <850mV. Damit TLOU1 problemlos beendet. :)
94103

dargo
2025-09-09, 11:51:46
Hmm... interessant. Bisher dachte ich, dass ein Treiber Timeout immer nur auf Kosten von Graka Undervolting geht. Dem ist nicht so. Habe jetzt mit TLOU2 angefangen und hier hat sich herausgestellt, dass der SoC an meinem 5800X3D nun 37,5mV mehr braucht (837,5mV) als noch mit der RX 6800XT. Man lernt nie aus. :)

Lehdro
2025-09-09, 15:21:01
Du forderst deine CPU halt mehr. Treibertimeouts bei Radeons mit instabilen CPUs kenne ich aber zur Genüge - deswegen immer alles testen und nicht nur 2D Zeug wenn man die CPU einstellt. Das war damals zu RDNA2 kurz ein heißes Thema als AMD plötzlich die CPUs über den Treiber OCed hat... (https://www.computerbase.de/news/grafikkarten/amd-radeon-adrenalin-ryzen-auto-oc-bios.80104/)

dargo
2025-09-09, 15:26:29
Ich lasse halt gerne den SoC, VDDP, CCD unf IOD auf ein absolutes Minimum bei den Voltages laufen was das Board hergibt bzw. die CPU bei bestimmten DDR4-Preset weil ich damit dann bei <=18W in Idle rauskomme. Und bei Last wird die CPU damit auch ein weniger kühler. :)

aufkrawall
2025-09-09, 15:32:31
deswegen immer alles testen und nicht nur 2D Zeug wenn man die CPU einstellt.
Ach, das wär mit 99%iger Wahrscheinlichkeit mit Linux GCC/Clang oder tm5+Föhn aufgefallen.

Hacki_P3D
2025-09-09, 22:39:34
--- deleted ---

dargo
2025-09-10, 11:49:24
AMD scheint mit dem Adrenalin 25.9.1 aus RDNA4 mehr rauszuholen. Zumindest schlussfolgere ich das daraus weil mein worst case in Ratchet und Clank jetzt nicht mal mehr -45mV überlebt obwohl vorher mit dem Adrenalin 25.8.1 -50mV immer sicher waren. :tongue: Habe jetzt vorsichtshalber 4x hintereinander das worst case mit -40mV laufen lassen, damit läufts durch. -45mV lief auch einmal durch, beim zweiten Mal dann Treiber Timeout. Hier empfehlen sich also immer mehrere Durchläufe für einen Test. Was richtig tückisch hier ist.... sind die Spannungen beim Speichercontroller der CPU zu niedrig gibts bei diesem worst case auch einen Treiber Timeout. X-D

Edit:
Bei einer Sache stehe ich aber noch auf dem Schlauch bzw. kann ich mir da nichts draus zusammen reimen. Wir bleiben mal bei dem worst case in Ratchet und Clank.

1. CPU-Speichercontroller @Stock Spannung, Graka @-40mV, -500Mhz, max. 261W = 4x Durchlauf bestanden
2. CPU-Speichercontroller @825mV, Graka @-40mV, -500Mhz, max. 261W = erster Durchlauf Treiber Timeout
3. CPU-Speichercontroller @825mV, Graka @Stock = 4x Durchlauf bestanden

Hä? Bin ich im falschen Film? :ulol:

PS: nach einem Treiber Timeout wird der PC von mir manuell natürlich neu gestartet und alles neu eingestellt.

Der_Korken
2025-09-10, 12:37:29
Bei einer Sache stehe ich aber noch auf dem Schlauch bzw. kann ich mir da nichts draus zusammen reimen. Wir bleiben mal bei dem worst case in Ratchet und Clank.

* CPU-Speichercontroller @Stock Spannung, Graka @-40mV, -500Mhz, max. 261W = 4x Durchlauf bestanden
* CPU-Speichercontroller @825mV, Graka @-40mV, -500Mhz, max. 261W = erster Durchlauf Treiber Timeout
* CPU-Speichercontroller @825mV, Graka @Stock = 4x Durchlauf bestanden

Hä? Bin ich im falschen Film? :ulol:

PS: nach einem Treiber Timeout wird der PC von mir manuell natürlich neu gestartet und alles neu eingestellt.

Ist das reproduzierbar? Also wenn du Setting 2 nochmal startest, stürzt es dann immer direkt ab? Nicht dass du da einfach Pech hattest und Setting 1 und 2 sind in Wirklichkeit gleich(in)stabil.

Ansonsten wäre das schon interessant, dass zwei verschiedene Settings in Kombination Einfluss auf die Stabilität haben. Das würde ja bedeuten, dass ein schwaches UV-Ergebnis in Spiel X auch daran liegen könnte, dass die CPU dort zu nah am UV-Limit läuft.

dargo
2025-09-10, 12:47:26
Ist das reproduzierbar?
Naja... wenn ich die gleiche Szene 4x hintereinander ablaufen lasse (es ist übrigens eine Cutszene bei R&C, die läuft ja immer gleich ab) dann sollte das bezüglich Reproduzierbarkeit passen. Es wird aber noch verrückter. ;D

4. CPU-Speichercontroller @825mV, Graka @-40mV, -500Mhz, max. 261W = 4x Durchlauf bestanden

In diesem Versuch habe ich nicht mein UV-Profil vom Adrenalin 25.8.1 geladen sondern im Adrenalin 25.9.1 neu eingestellt, ohne bei Lüftertuning einzugreifen. Einfach nur noch verrückt. :crazy: Ich sollte mir eventuell angewöhnen bei neuen Treibern immer neue UV-Profile anzulegen, eventuell ist das etwas verbugt wenn man die von älteren Treibern lädt. Aber auch nur reine Spekulation erstmal.

Der_Korken
2025-09-10, 13:02:27
Eventuell werden Einstellungen da nur in der GUI übernommen und unter der Haube was anderes gemacht. So nach dem Motto: Vorher waren -40mV eingestellt, durch den neuen Treiber wird nur die GUI wieder auf 0mV gesetzt, aber intern steht es noch auf -40mV. Wenn man den Regler wieder auf -40 zieht, nutzt er intern -80, weil er einfach 40 vom aktuellen Wert abzieht. Erst einmal komplett resetten und neu einstellen behebt das Problem. Wilde Theorie von mir.

Verhält sich der 25.9.1. jetzt wieder wie der 25.8.1?

dargo
2025-09-10, 13:15:11
Eventuell werden Einstellungen da nur in der GUI übernommen und unter der Haube was anderes gemacht. So nach dem Motto: Vorher waren -40mV eingestellt, durch den neuen Treiber wird nur die GUI wieder auf 0mV gesetzt, aber intern steht es noch auf -40mV. Wenn man den Regler wieder auf -40 zieht, nutzt er intern -80, weil er einfach 40 vom aktuellen Wert abzieht. Erst einmal komplett resetten und neu einstellen behebt das Problem. Wilde Theorie von mir.

Kann ich noch nicht sicher beantworten. Ich habe nämlich ein weiteres Mal Punkt 4 getestet und diesmal ist R&C mit den gleichen Settings wieder mit einem Treiber Timeout gecrashed. Ich habe den Verdacht, dass die 825mV noch zu knapp an der Stabilitätsgrenze sind und deshalb das etwas random reagiert. Es gibt sicherlich auch minimale Spannungsschwankungen innerhalb der Toleranzen. Ab jetzt verwende ich nur noch UV-Profile vom aktuellen Treiber um zumindest diese potenzielle Fehlerquelle auszuschließen.

5. CPU - SOC/VDDP/CCD/IOD @900mV, Graka @-40mV, -500Mhz, max. 261W = 4x Durchlauf bestanden
6. CPU - SOC/VDDP/CCD/IOD @850mV, Graka @-40mV, -500Mhz, max. 261W = dritter Durchlauf Crash mit Treiber Timeout
7. CPU - SOC/VDDP/CCD/IOD @875mV, Graka @-40mV, -500Mhz, max. 261W = 4x Durchlauf bestanden
8. CPU - SOC/VDDP/CCD/IOD @862,5mV, Graka @-40mV, -500Mhz, max. 261W = 4x Durchlauf bestanden
9. CPU - SOC/CCD/IOD @862,5mV, VDDP @700mV, Graka @-40mV, -500Mhz, max. 261W = 4x Durchlauf bestanden
10. CPU - SOC/CCD/IOD @862,5mV, VDDP @700mV, Graka @-50mV, -500Mhz, max. 261W = erster Durchlauf Crash mit Treiber Timeout
11. CPU - SOC/CCD/IOD @862,5mV, VDDP @700mV, Graka @-45mV, -500Mhz, max. 261W = vierter Durchlauf Crash mit Treiber Timeout


Verhält sich der 25.9.1. jetzt wieder wie der 25.8.1?
Was meinst du damit?

Edit:
Das ist übrigens mein worst case in R&C.

6Hd-asBcfS0

Das scheint sehr fordernd sowohl für den Speichercontroller der CPU als auch die Grafikkarte zu sein was Undervolting angeht. Sicherlich wird im Hintergrund ordentlich gestreamed für den nächsten Levelabschnitt + DirectStorage. Wenn die Applikation crashed dann immer mit einem Treiber Timeout wenn die Spinne im Großformat zu sehen ist.

btw.
Ich behalte erstmal Setting 9 für 24/7 bis mir wieder langweilig wird. :ulol: Sollte damit irgendwas immer noch instabil sein weiß ich welche Stellschrauben zu bewegen sind.

Der_Korken
2025-09-10, 14:28:44
Was meinst du damit?

Ob sich beim maximalen stabilen UV zwischen 25.8.1 und 25.9.1 was geändert hat.

Generell finde ich 825mV VSoC schon extrem niedrig. Ich habe meine nie nach unten ausgelotet, aber für 1866Mhz brauchte ich 1100mV, damit sie stabil läuft (1075mV waren es nicht) und für 1600Mhz (die ich seit längerem laufen habe) habe ich 950mV geschätzt und die waren bisher immer stabil. Eventuell geht mehr aber wayne. Der Idle-Verbrauch wird durch das IFOP getrieben.

dargo
2025-09-10, 14:30:26
Ob sich beim maximalen stabilen UV zwischen 25.8.1 und 25.9.1 was geändert hat.

Jo... 10mV im Treiber gehen jetzt bei mir weniger. Also weniger Takt daraus resultierend ist gemeint.

Edit:
12. CPU - SOC @862,5mV, VDDP @700mV, CCD/IOD @800mV, Graka @-40mV, -500Mhz, max. 261W = 4x Durchlauf bestanden

Das bleibt jetzt 24/7, damit habe ich wieder meine <=18W in Idle an der CPU. Sieht wirklich so aus, dass nur der SoC der CPU rund 56mV zu wenig hatte.

btw.
Habe mal mit CapFrameX nachgemessen was das letztendlich ausmacht. Also Stock Spannungen am Speichercontroller der CPU vs. UV. Messdauer betrug hier 45 Sekunden, das ganze dann je 3x gemessen und den Durchschnittswert genommen.

Stock @Auto bei DDR4-3200:
SOC = 1000mV
VDDP/CCD/IOD = 900mV
94125

UV @DDR4-3200:
SOC = 862,5mV
VDDP = 700mV
CCD/IOD = 800mV
94126

Im Schnitt sind es nur 3 Wattchen, Peak sind es aber schon ~9W weniger.

Hakim
2025-09-11, 14:08:19
zQQUfQw5JA8

16 9070XT Karten Roundup

dargo
2025-09-11, 14:36:01
Mich wundern etwas die relativ hohen Preise über dem großen See. Offenbar profitieren wir hier ganz nett vom guten Eurokurs.

Hakim
2025-09-11, 14:39:07
Die US Preise die da gezeigt werden sind ja schon relativ hoch, aber glaube ohne Steuern, sprich eigentlich sogar noch mehr.

Nur mal so als Vergleich, eine Red Devil die es hier für 709€ gibt, kostet dort 820$ + Steuern.

horn 12
2025-09-11, 15:57:55
Nun, die Gigabyte sind zwar kurz und Niedlich
aber dennoch in Aller Hinsicht zu meiden!

Hätte gestern eine um 599 Euro bekommen, die Gigabyte 9070 XT aber doch gelassen.

Da ist man mit der Hellhound XT bestens bedient bei RDNA 4

Lehdro
2025-09-11, 16:02:46
Mich wundern etwas die relativ hohen Preise über dem großen See. Offenbar profitieren wir hier ganz nett vom guten Eurokurs.
Nö.

NV Karten kosten hüben wie drüber relativ gesehen gleich viel. Nur aus irgendwelchen Gründen ist RDNA4 in Nordamerika unfassbar teuer. Das ist tatsächlich sehr ungewöhnlich, zieht sich aber schon Monate so durch. Erklärt auch die deutlich "kühlere" Begeisterung für RDNA4 seitens der nordamerikanischen Techtuber.

Hakim
2025-09-11, 16:20:39
ja gerade mal bei Newegg verglichen, die günstigen 9070XT fangen dort bei 699$ an während die 5070Ti bei 749$ startet, nur 50$ Unterschied, kein Wunder das die 9070XTs es dort schwer haben.

https://www.newegg.com/p/pl?N=100007709%20601469157%20601469161%204814&Order=1

Schrotti
2025-09-11, 16:29:36
Ich habe ne ASRock Radeon RX 9070 XT Taichi als B-Ware für 719 Euro gekauft.
Die werde ich zum 9950X3D ins System packen und dann mal schauen was da geht.

Hab die mit Absicht genommen, da es für die Karte auch einen Wasserkühler gibt Klick mich hart (https://shop.alphacool.com/shop/gpu-wasserkuehlung/amd/14752-alphacool-core-rx-9070-xt-taichi-mit-backplate).

USS-VOYAGER
2025-09-11, 17:56:07
Früher haben die Kühler unter 100€ gekostet...

dargo
2025-09-11, 18:08:58
Generell finde ich 825mV VSoC schon extrem niedrig. Ich habe meine nie nach unten ausgelotet, aber für 1866Mhz brauchte ich 1100mV, damit sie stabil läuft (1075mV waren es nicht) und für 1600Mhz (die ich seit längerem laufen habe) habe ich 950mV geschätzt und die waren bisher immer stabil. Eventuell geht mehr aber wayne. Der Idle-Verbrauch wird durch das IFOP getrieben.
Naja... hierbei wird es sicherlich je nach Silikon Lotterie auch einige Ausreißer nach oben und unten geben. Pauschal lässt sich das nicht beantworten. :) Jetzt weiß ich übrigens wieder warum man beim IOD nicht weit unter 800mV gehen sollte. Mit 750mV gibt es bereits Soundknackser. :tongue: Ist aber wayne da weniger als 800mV eh keine Ersparnis mehr bringt.

horn 12
2025-09-11, 18:14:02
Sorry, aber funktionieren die 9070 XT Gigabyte Gaming OC auch mit nur 2x 8 Pin
oder braucht es wirklich die 3x 8Pin wie verbaut ?

Kann dies mal einer bitte austesten
die NON XT hat nur 2x 8 Pin verbaut!

Der_Korken
2025-09-11, 18:50:43
Sorry, aber funktionieren die 9070 XT Gigabyte Gaming OC auch mit nur 2x 8 Pin
oder braucht es wirklich die 3x 8Pin wie verbaut ?

Kann dies mal einer bitte austesten
die NON XT hat nur 2x 8 Pin verbaut!

Funktionieren im Sinne, dass die Stromversorgung reicht, ist mit 2x8pin ein klares Ja. Funktionieren im Sinne, dass die Karte nicht anspringt, weil sie in allen Steckern Strom erwartet ... muss einzeln pro Modell getestet werden.

Hakim
2025-09-11, 19:32:25
Die einzige Karte wo ich weiß das es geht ist die 5090, aber in der Regel davon ausgehen das es eher nicht geht. Gigabyte scheint sowieso bei den 9070ern nicht so gut zu sein, wozu das Glücksspiel spielen?

Denniss
2025-09-12, 00:53:38
Bei zwei steckern am adapter geht auch eine 5090 nicht an.
Bei den 8-pins an der karte müssen alle drei rein.

Hakim
2025-09-12, 01:33:00
Ich meinte nur das bei der 5090 bei nicht Vollbestückung (3 von 4 vom Adapter) es immer noch funzt (PT entsprechend gedrosselt), also quasi wie bei dem Beispiel mit der 9070XT wo welche zwar 3 x 8 Pin haben aber wahrscheinlich nicht anspringen wenn nur 2 anstecken.

dargo
2025-09-12, 11:13:24
@Korken

Was ich auch recht interessant finde ist die Tatsache, dass eine Absenkung der Spannung bei VDDP/CCD und IOD offenbar den Speichercontroller der CPU wieder etwas stabilisiert.

6. CPU - SOC/VDDP/CCD/IOD @850mV, Graka @-40mV, -500Mhz, max. 261W = dritter Durchlauf Crash mit Treiber Timeout

13. CPU - SOC @837,5mV, VDDP @700mV, CCD/IOD @800mV, Graka @-40mV, -500Mhz, max. 261W = 4x Durchlauf bestanden (zwei Mal getestet, also insgesamt 8 Durchläufe)

Denniss
2025-09-13, 14:28:02
AMD/Nvidia Preise aus diversen Teilen der Welt
https://www.youtube.com/watch?v=TpsKXMRf9lU

dargo
2025-09-15, 10:18:32
Hier wieder ein nettes Beispiel aus AC: Shadows was N48 zusätzlich an Power frisst wenn man ihn so hoch boosten lässt wie AMD es @Stock macht.

-40mV, -500Mhz, max. 261W
https://i.postimg.cc/1nQdqn4b/ACShadows-2025-09-15-10-10-43-670.jpg (https://postimg.cc/1nQdqn4b)

-40mV, kein Taktoffset, max. 261W
https://i.postimg.cc/hXXNWRHZ/ACShadows-2025-09-15-10-09-13-826.jpg (https://postimg.cc/hXXNWRHZ)

Einfach nur verrückt was die zusätzlichen ~230Mhz fressen. Ich hoffe AMD kriegt den Verbrauch bei den höheren Frequenzen bei RDNA5 besser in den Griff. Weil viel Takt schafft RDNA4, ist dabei aber noch zu durstig.

btw.
AC: Shadows heizt noch weniger als ein TLOU2. Hätte ich auch nicht für möglich gehalten, dass man das noch toppen kann. :tongue:

senator
2025-09-17, 14:31:56
Hab jetzt die Sapphire 9070 Pulse drin,bisher gefällt sie mir gut.Mal schauen was beim UV geht.

dargo
2025-09-17, 14:32:59
Hast schon Samsung oder noch Hynix drauf?

senator
2025-09-17, 15:07:23
Kann ich heute Abend nach Feierabend mal nachschauen,ich nehme an mit Gpu-z?

dargo
2025-09-17, 15:08:26
Jepp.

senator
2025-09-17, 15:10:54
Okay,ich schaue nachher mal nach.

senator
2025-09-17, 15:27:56
https://ibb.co/fdvqnRxZ sieht nach Samsung aus,hat meine Frau eben mit dem Handy gemacht.

dargo
2025-09-17, 15:52:49
So dringend war es jetzt auch nicht, dass die Frau "belästigt" werden musste, aber danke. ;)

senator
2025-09-17, 16:03:35
So dringend war es jetzt auch nicht, dass die Frau "belästigt" werden musste, aber danke. ;)
Kein Problem...hatte ich Gelegenheit zu einer Kaffeepause 😄

Freestaler
2025-09-17, 20:49:44
Weiss gerade noch nicht was mir mehr gefallen soll: Dein Wille um diese Unwissen zu eliminieren oder deine Frau die Dich so unterstützt!!!???

Auch egal, ich feiere euch!

dildo4u
2025-09-18, 09:46:33
btw.
AC: Shadows heizt noch weniger als ein TLOU2. Hätte ich auch nicht für möglich gehalten, dass man das noch toppen kann. :tongue:

Verwundert nicht ist extra langsam auf RDNA4.

https://youtu.be/OSvyUFSIUtU?si=-w9_FYM4EC5ui0MK&t=833

Der_Korken
2025-09-18, 09:58:59
Einfach nur verrückt was die zusätzlichen ~230Mhz fressen. Ich hoffe AMD kriegt den Verbrauch bei den höheren Frequenzen bei RDNA5 besser in den Griff. Weil viel Takt schafft RDNA4, ist dabei aber noch zu durstig.

Hast du mal ne Hausnummer, wie die Spannung bei den Taktraten aussieht? Für mich sieht es nicht so aus, als hätte RDNA4 ein generelles Problem mit hohen Taktraten, sondern die Architektur hat einfach den hohen Verbrauch von RDNA3 geerbt. Ich habe eine alte Version von Furmark und hier läuft die 9070XT bei 304W mit 2,1Ghz bei 0,8V. Nur damit man mal sieht, wie stark die Architektur theoretisch reinheizen kann. Bei keiner anderen GPU, die ich bisher hatte, ist der Takt in Furmark so umgefallen. Die Säuferei fällt aber nicht mehr so stark auf wie bei RDNA3, weil sich die IPC stark erhöht hat, ohne dass der Verbrauch pro CU gestiegen ist und auch der Wegfall der Chiplet-Verbindungen spart sicherlich das ein oder andere Watt ein.

dargo
2025-09-18, 10:08:48
Verwundert nicht ist extra langsam auf RDNA4.

https://youtu.be/OSvyUFSIUtU?si=-w9_FYM4EC5ui0MK&t=833
Die Messungen von HWU sind im Kontext völlig irrelevant da ich custom Settings verwende. Und mit diesen läuft da nichts extrem langsam auf RDNA4.

Hast du mal ne Hausnummer, wie die Spannung bei den Taktraten aussieht?
Kann ich noch nachliefern, wahrscheinlich aber frühestens am kommenden WE. Ich nehme aber an du willst dann das ganze ohne diese -40mV sehen, also Stock V/F-Kurve?

senator
2025-09-18, 10:39:58
Weiss gerade noch nicht was mir mehr gefallen soll: Dein Wille um diese Unwissen zu eliminieren oder deine Frau die Dich so unterstützt!!!???

Auch egal, ich feiere euch!
Freut mich, auch wenn ich beim Kontext gerade auf dem Schlauch stehe 😄,und ich wollte es dann ja auch wissen.

Der_Korken
2025-09-18, 12:04:00
Die Messungen von HWU sind im Kontext völlig irrelevant da ich custom Settings verwende. Und mit diesen läuft da nichts extrem langsam auf RDNA4.


Kann ich noch nachliefern, wahrscheinlich aber frühestens am kommenden WE. Ich nehme aber an du willst dann das ganze ohne diese -40mV sehen, also Stock V/F-Kurve?

Ich wollte nur anhand der Formel P = f * U² abschätzen, ob der Anstieg des Verbrauchs in deiner Szene erklärbar ist oder nicht. Wobei ... theoretisch kann ich sowas ja selber nachstellen, ich hab ja selber einen N48. Es sei denn, du denkst der Verbrauchsunterschied in der einen Szene-Spiel ist irgendwie fishy, dann musst du selber nach der Spannung gucken :tongue:.

Vom Bauchgefühl würde ich nicht sagen, dass RDNA4 ein Problem mit hohen Taktraten hat, sondern dass das einfach der normale Effizienzverlust durch hohe Spannungen ist. Es kommt einem vielleicht nur so vor, weil der erreichte Takt unter Last viel stärker vom Spiel abhängt, als man das vielleicht von anderen Architekturen her kennt. Für mich sind das aber eher die Überreste von RDNA3, wo wir ja auch schon gesehen haben, dass der Takt bei leichter Last (vor allem bei Nicht-Spielen) abgeht wie ein Zäpfchen und bei hoher Last komplett einknickt.

dargo
2025-09-18, 12:06:32
Vom Bauchgefühl würde ich nicht sagen, dass RDNA4 ein Problem mit hohen Taktraten hat, sondern dass das einfach der normale Effizienzverlust durch hohe Spannungen ist.
Ähm...

Ich hoffe AMD kriegt den Verbrauch bei den höheren Frequenzen bei RDNA5 besser in den Griff. Weil viel Takt schafft RDNA4, ist dabei aber noch zu durstig.

Der_Korken
2025-09-18, 12:39:42
Dein Post klang so, als hätte RDNA4 besonders bei hohen Taktraten ein hohen Verbrauch, aber niedrigen Taktraten nicht. Dem würde ich mich wie gesagt nicht anschließen. Entsprechend kann RDNA5 da auch nichts verbessern. Höhere Effizeinz im Allgemeinen wird es auf jeden Fall geben.

dargo
2025-09-18, 15:05:25
Dein Post klang so, als hätte RDNA4 besonders bei hohen Taktraten ein hohen Verbrauch, aber niedrigen Taktraten nicht. Dem würde ich mich wie gesagt nicht anschließen.
Ich schaue mir das am Wochenende mal genauer mit mehreren Daten in einer Tabellenkalkulation an. :)

Raff
2025-09-19, 14:27:19
Radeon RX 9070 erfolgreich mit XT-BIOS geflasht: Mod des AMDVBFlash ermöglicht Tool-Crossflash (https://www.pcgameshardware.de/Radeon-RX-9070-Grafikkarte-281024/Specials/Flashback-AMDVBFlash-Tool-RDNA-Mod-1482476/)

:naughty:

MfG
Raff

Hakim
2025-09-19, 14:50:42
Bin immer noch der Meinung lieber die XT holen statt bei der nonXT rum modifizieren, aber ja für Leute die gerne Basteln :). Preisunterschied ist irgendwie zu gering.

horn 12
2025-09-19, 14:55:21
Ja, auch die Heatpipes und Kühler teils bei der Non XT abgespeckt!
Dies bringt es nicht!

dargo
2025-09-19, 21:00:56
@Korken

Hier mal meine Messungen mit verschiedenen Powerlimits in einer Szene von AC: Shadows mit Stock V/F-Kurve. Das ganze mit CapFrameX je 10 Sekunden lang aufgenommen ohne mich zu bewegen.
94188

Ich hätte zu gern noch die Taktraten als Linie im Diagramm gehabt. Nur bin ich zu lange aus der Übung mit Office in diesem Bereich raus und weiß nicht mehr wie es geht. :usad:

PS: bei den 3090Mhz stand das PT auf Stock 304W, die GPU wollte aus mir unerklärlichen Gründen aber nicht höher boosten um das Powerlimit voll zu bekommen.

Edit:
Und hier noch ein separater Vergleich mit -40mV.
94189

3147Mhz = -40mV, kein Taktoffset, 304W PT
2877Mhz = -40mV, -500Mhz, 261W PT (wobei das Powerlimit hier egal ist, weit davon entfernt)

Der_Korken
2025-09-19, 22:34:05
@Korken

Hier mal meine Messungen mit verschiedenen Powerlimits in einer Szene von AC: Shadows mit Stock V/F-Kurve. Das ganze mit CapFrameX je 10 Sekunden lang aufgenommen ohne mich zu bewegen.
94188

Ich hätte zu gern noch die Taktraten als Linie im Diagramm gehabt. Nur bin ich zu lange aus der Übung mit Office in diesem Bereich raus und weiß nicht mehr wie es geht. :usad:

PS: bei den 3090Mhz stand das PT auf Stock 304W, die GPU wollte aus mir unerklärlichen Gründen aber nicht höher boosten um das Powerlimit voll zu bekommen.

Edit:
Und hier noch ein separater Vergleich mit -40mV.
94189

3147Mhz = -40mV, kein Taktoffset, 304W PT
2877Mhz = -40mV, -500Mhz, 261W PT (wobei das Powerlimit hier egal ist, weit davon entfernt)

Ich habe das mal in ein Spreadsheet reingeworfen, um zu gucken, ob die Formal P = f * U² zu den Werten passt. Dazu packen wir eine Variable x auf der linken Seite rein, die uns einen konstanten Faktor liefert, der nötig ist, um die Gleichung zu erfüllen. Wenn der bei allen Szenarien ungefähr gleich ist, dann ist der Verbrauch stimmig im Verhältnis zur Frequenz und Spannung.

Beispiel (kleinster Wert aus erstem Bild):
f = 2,778 [Ghz]
U = 0,938 [V]
P = 212 [W]

x * P = f * U² <=> x = 0,01153

Der Wert von x sagt uns erstmal nichts, sondern das ist erstmal irgendein Faktor. Für die anderen Werte aus dem ersten Bild ergibt sich:

212W: x = 0,01153
234W: x = 0,01180
261W: x = 0,01206
287W: x = 0,01219

Die Werte sind relativ nah beieinander, nehmen aber mit höherem Verbrauch zu. Was heißt das? -> Dass das P tendenziell etwas zu klein ist bei höheren Verbräuchen. Das ergibt erstmal Sinn, denn wir haben ja noch den IMC und den VRAM, die in allen Szenarien gleich takten. Insbesondere steigt der Verbrauch nicht "unverhältnismäßig" mit dem Takt, sondern der hohe Takt braucht einfach extrem viel Spannung für wenig Zugewinn.

Kleine Spielerei: Ich erweitere die Formel um eine Konstante c für den VRAM/IMC-Verbrauch:

x * P = f * U ² + c

Theoretisch könnte man jetzt ein nichtlineares Optimierungsproblem lösen, wo man versucht einen Wert für c zu finden, sodass alle x-Werte möglichst nah beeinander sind, aber das ist mir zuviel Arbeit. Ich setze einfach mal 40W ein, weil das in etwa der Idle-Verbrauch meiner 9070XT ist, wenn der VRAM mit vollem Takt läuft und siehe da, es ergeben sich folgende Werte für x:

212W: x = 0,01421
234W: x = 0,01424
261W: x = 0,01424
287W: x = 0,01416

Passt ziemlich gut. Man kann also den Verbrauch einer 9070XT abschätzen durch:

0,0142 * f[Ghz] * U[V]² + 40W

Ich setze mal die Werte mit -40mV Offset für c = 40W ein:

210W: x = 0,01479
282W: x = 0,01445

Die sind etwas höher als ohne Offset. Hier wäre die Näherungsformel eher

0,0136 * f[Ghz] * U[V]² + 25W

also 25W statt 40W als "Offset". Ich hätte eher erwartet, dass das c immer gleich bleibt. Aber zumindest für die Stock-f/V-Kurve finde ich deine Werte absolut plausibel.

Edit: Die konkreten Werte gelten nur für die getestete Szene in dem getesten Spiel. D.h. die Formel "0,0142 * f[Ghz] * U[V]² + 40W" klappt natürlich nicht in jedem x-beliebigen Spiel (sonst würde ja jedes Spiel mit dem gleichen Takt laufen).

Raff
2025-09-24, 21:26:31
Radeon RX 9070 erfolgreich mit XT-BIOS geflasht: Mod des AMDVBFlash ermöglicht Tool-Crossflash (https://www.pcgameshardware.de/Radeon-RX-9070-Grafikkarte-281024/Specials/Flashback-AMDVBFlash-Tool-RDNA-Mod-1482476/)

Wer lieber guckt, anstatt zu lesen - der Film zum Buch ist nun auch up.

cI7FYAlTEVU

Mit einer derart gemoddeten Karte kann man sicher u. a. in der 3DMark Hall of Fame abräumen. :D

MfG
Raff

GerryB
2025-09-25, 08:42:17
Mit einer derart gemoddeten Karte kann man sicher u. a. in der 3DMark Hall of Fame abräumen.

???, das würde wohl nur so sein, wenn ne 9070 mit XT Bios immer noch als nonXT "falsch"erkannt wird,
aber bzgl. abräumen kommt man trotzdem nicht gegen die Profis an, ...
im 9070leaderboard ist nach wie vor reloadll aus dem pcgh-thread mit dem linuxmodd weit vorne, gefolgt von Buildzoid mit Shuntmodd

edit: habs gerade gesehen, ein Luxxer hat seine 9070 gaming OC mit dem 360W Bios der XT laufen lassen und wurde als nonXT
im Leaderboard auf Rang 11 gewertet, ... also dann viel Spass beim Benchen
https://www.3dmark.com/sn/8797667


btw.
gegen guggen ist nix einzuwenden, mirwegen darf Raff gerne seine Videos verlinken
(weil es zusätzlich die lesbaren Reviews gibt und da im Thread diskutiert werden kann, ist das ja net so schlimm wie YT only)
und
der Verfasser vom Txt = Gurdi findet das Video übrigens "schön in Szene gesetzt", da brauchts dann keine abfälligen comments von Dritten hier.

raffa
2025-09-25, 09:15:24
klappt das auch andersrum? Also eine XT mit dem non XT Bios zum Sparbrötchen mit voller Shaderzahl flashen?

edit: Dem Video nach sollte das klappen. Jedenfalls das flashen, was dann rauskommt müsste man testen

Hakim
2025-09-25, 09:19:46
klappt das auch andersrum? Also eine XT mit dem non XT Bios zum Sparbrötchen mit voller Shaderzahl flaschen?

Sollte mit der hauseigenen Software und der Begrenzung des Powerlimits auf 220W wesentlich einfacher sein

dargo
2025-09-25, 09:20:20
klappt das auch andersrum? Also eine XT mit dem non XT Bios zum Sparbrötchen mit voller Shaderzahl flaschen?
???

Brauchst du noch mehr Sparbrötchen als die offiziell zugänglichen min. 213W einer XT? Zudem würde sowas eh nicht funktionieren da eine non XT weniger SPs hat. Du würdest dir damit zwangsläufig die Shader deaktivieren.

raffa
2025-09-25, 09:56:25
Nicht alle Gedanken sind unbedingt sinnvoll :D

Wenn würde man wohl eher das XT Bios mit anderem Powerlimit (zb 250W) und gff. Lüfterkurve und Taktlimits versehen und das dann als echtes Silentbios flashen. Grad bei Dual Bios Karten wär das schon nett, find ich.

Ich bastel halt gern und mehr als ~260W würde die Karte bei mir eh nie sehen. Und wenn sie einfach so läuft wie sie soll ohne Softwaretuning, wär das schon nice

dargo
2025-09-25, 09:59:36
Ebenfalls überflüssig da das alles mit dem Treiber ohne flashen geht. :) Eine Hellhound XT hat übrigens ein echtes Silent-Bios von Haus aus. ;) Das Ding ist hier @Stock durchgehend unter 1000RPM selbst mit hohen 304W geblieben. Der GPU-Hotspot war dann natürlich schon im mittleren 80-er Bereich. Vermutlich 89-90°C Target von Powercolor hinterlegt.

raffa
2025-09-25, 10:12:04
Was mich so gar nicht davon abhalten würde, mir mein custom bios zu flashen, falls ich mich irgendwann mal durchringe, eine zu bestellen ;)

dargo
2025-09-25, 10:48:58
Du gehst also lieber das Risiko ein deine Garantie zu verlieren oder die Graka zu schrotten obwohl alles was du aufzählst per Software geht? Ok...

raffa
2025-09-25, 11:43:07
Na, mal schaun, solang ich keine Karte hab ist das eh Spekulation, und gleich am ersten Tag begeb ich mich sicher nicht an solche Aktionen. Und wenn sie sich mit lact zufriedenstellend einstellen lässt, ist das ein gutes Argument gegen solche Risiken.

Da es scheints eh keine kompakte XT mit Dualbios gibt, kann ich den Gedanken auch gleich wieder begraben.

dargo
2025-09-25, 11:45:40
Was verstehst du unter "kompakt"?

raffa
2025-09-25, 12:17:55
https://geizhals.de/?cat=gra16_512&sort=p&xf=20322_130%7E2612_300%7E9809_05+16+-+RX+9070%7E9809_05+16+-+RX+9070+XT

Länge < 300mm, Breite < 130, Dicke < 55

edit: grad mal am Case nachgemessen, passt eigentlich nur die Pulse 9070 rein.. : \

dargo
2025-09-25, 12:23:35
Das wird dann in der Tat etwas schwierig im Bereich schön leise und thermisch weit von kritisch entfernt. Bei sowas rate ich generell von 300W ab. Max. 250W, je nach Model eher ~220W.

G3cko
2025-10-02, 14:46:11
https://s1.directupload.eu/images/251002/hazzn4ds.jpg

So 9070XT nun unter Wasser

dargo
2025-10-02, 14:56:36
Für eine RX 9070XT so ein Aufwand? X-D

Lurtz
2025-10-02, 16:12:09
Das macht man für die Optik, nicht weil es Sinn ergibt :ugly:

dargo
2025-10-02, 16:34:53
Ok... :D

dmsephiroth
2025-10-02, 17:20:15
https://s1.directupload.eu/images/251002/hazzn4ds.jpg

So 9070XT nun unter Wasser

Für was ist die Batterie an Lüftern auf dem Regal? O-o

G3cko
2025-10-02, 19:50:30
Genau, dass ist Optik und der Spaß am Basteln. Aber so eine Wakü hat halt auch Vorteile an die man sich sehr schnell gewöhnt. Das System ist eben bei jedem Lastfall sehr sehr leise.
Meine Systeme hatten immer einen hohen Verbrauch. Ich hatte davor einen Q6600 und einen 5960x mit je 50% OC. Da haben die System schon im Leerlauf 150-200 Watt verbraten.
Den externen Radi hab ich mir gekauft, da hatte ich noch einen 5960x und eine vega64.

Das größte Problem ist aber, ich hänge an meinem Case und da funktioniert eine interne Wakü nicht. Zumindest war 5960x + vega64 zuviel. Ist ein Custom Inwin 904.

Auch wenn der Umbau jetzt auf AM5 zeitgleich erfolgt ist, und die Kühlleistung für den 7500F und die 9070x totaler Overkill ist, ist dass nun das Fundament fur kommende upgrades.. Ich nutzte meine Hardware immer sehr lange und plane dann den umstieg auf die schnellste CPU der AM5 Plattform die ja erst in 3 jahren erscheint. Auch auf seiten der GPUs ist nun nach oben hin alles offen für die nächsten Jahre.

Was mich auch immer gestört hat war das befüllen. Nun ist der AGB und die pumpe am externen radi montiert und die wakü somit weitestgehend vom restsysem entkoppelt, was upgrades/ Umbau der restlichen HW vereinfacht.

dargo
2025-10-02, 19:54:48
Ich umgehe sowas indem ich mir einfach keine Heizöfen kaufe. Aber jeder wie er mag. :)

G3cko
2025-10-03, 14:41:32
Ich umgehe sowas indem ich mir einfach keine Heizöfen kaufe. Aber jeder wie er mag. :)

Solange die Technik/Leistung stimmt, darf sie auch gerne mehr verbrauchen.

Ex3cut3r
2025-10-03, 14:56:08
So 9070XT nun unter Wasser

Viel Spaß damit.

dargo
2025-10-03, 14:57:35
Neben den harten Nvidia Fanboys muss es auch genug AMD Boys für einen gesunden Markt geben. Achja... die Intel Boys bitte dabei nicht vergessen, auch wenn Intel momentan leider schwächelt.

lol... hast schnell editiert. ;D

Emil_i_Lönneberga
2025-10-03, 15:00:05
@Ex3cut3r

Was soll man mit einer luftgekühlten GPU anfangen?

Edit: LOL, schnell editiert:

Ex3cut3r
2025-10-03, 16:32:19
LOL. Ich hab das innerhalb von 30 Sekunden geändert. Wie schnell antwortet ihr bitte?

Taigatrommel
2025-10-03, 17:47:49
Ich hole Morgen meine 9070 XT Nitro+ ab, eigentlich wollte ich RDNA4 aussitzen, die Neugier hat vor allem dank der jüngst deutlich gesunkenen Preise dann am Ende aber doch überwogen. Der Hauptgrund ist vor allem FSR 4, dieses wird zwar auch auf meiner bisherigen 7900 XTX funktionieren, doch eben mit Leistungseinbußen.

Ein Hauptknackpunkt wird für mich Star Citizen: Ich hege noch Zweifel, ob die 9070 XT dort wirklich gut performt und an die XTX herankommt. Läuft das Spiel auf RDNA 4 viel schlechter, werde ich die 9070 XT wieder verkaufen und doch die XTX behalten.

Das 12VHPWR-Kabel des Netzteils liegt schon bereit, hätte nicht gedacht, dass ich dieses als Radeon Käufer doch so zeitnah brauchen würde ;)

Emil_i_Lönneberga
2025-10-03, 18:36:18
Das 12VHPWR-Kabel des Netzteils liegt schon bereit,

Den Ampinel nicht vergessen.

https://forum.aquacomputer.de/wasserk-hlung/p1473819-neu-ampinel-aktives-power-management-f-r-grafikkarten-sicher-und-intelligent/#post1473819

Hakim
2025-10-03, 18:45:05
ich Persönlich würde mir bei den PT Bereichen keine Sorgen wegen dem 12VHPWR Adapter machen. Es gibt bei den 70XT nur einen einzigen Fall der Bekannt ist (Taichi) und auch bei NV bei nicht 5090 oder 4090 nur paar Fälle bei so vielen verkauften Karten.

Es wäre bei mir kein Grund die Nitro+ auszuschließen. Mit der Red Devil meine Favoriten Karte bei den 70XTs

Taigatrommel
2025-10-03, 18:57:32
Es wäre bei mir kein Grund die Nitro+ auszuschließen. Mit der Red Devil meine Favoriten Karte bei den 70XTs

Das handhabe ich tatsächlich so. Ich habe vorhin erst vom Ampinel gelesen doch 1. wüsste ich gar nicht, ob der wirklich gut zur Nitro+ passt (immerhin sitzt der Anschluss an einer doch eher ungewöhnlichen Stelle) und 2. bin auch ich der Meinung, dass dies in dem Leistungsbereich eher unnötig ist, selbst wenn ich die Karte mit +10% oder +15% PT betreibe. Ansonsten hätte man ja auch von diversen 4080/5080 gelesen.

Edit: Ich habe die Karte inzwischen eingebaut und hatte, dank einzelner YT Videos, eher schlimmeres befürchtet. Ja, der Stecker rastet nicht wirklich ein, doch er lässt sich ja dennoch sicher einstecken. Den Adapter verwende ich nicht, stattdessen das 12VHPWR-Kabel meines Netzteils, dieses ist relativ flexibel und lässt sich in der kleinen Aussparung gut verlegen, an der unteren Ecke habe ich es denn leicht unter die Backplate gestopft. Die dekorative magnetische Backplate schließt bei mir bündig ab und hält auch sicher.

gedi
2025-10-05, 20:58:34
Die Taichi ist die beste Karte.

Andere Frage: Hat jemand von euch bereits Erfahrungen gesammelt zwecks einer VR-Brille?

mercutio
2025-10-06, 14:33:28
Ich habe jetzt eine Powercolor 9070XT Reaper, ist ja eigentlich unbeliebt wegen dem Kühler, aber bei -75 mV und 90% PT geht sie nicht über 273 W und die GPU bleibt unter 60*C, da bleiben die Lüfter noch leise.
Sie ist auch kompakt im Vgl. zu den XTX, die riesig sind und dabei trotzdem laut. :ugly:

Ich habe eine 7900GRE damit abgelöst und die Mehrleistung ist deutlich spürbar.

Control gibt es in der Steam Herbstaktion für <5 € und FarCry 6 habe ich auch für wenig Geld bekommen. :)

dargo
2025-10-06, 15:04:27
Spiel erstmal ein paar Wochen/Monate ob die -75mV auch überall halten. :wink: Wenn ja, guten Chip erwischt. Beim PT ist jeder vollkommen flexibel, ich erlaube meiner Karte max. 261W weil "nur" -40mV gehen. Würden -75mV gehen würde ich eher bei 250W oder etwas weniger dicht machen. Wäre trotzdem gleiche Performance wie Stock XT.

btw.
Hast du auch schon Samsung drauf?

mercutio
2025-10-06, 16:51:32
Spiel erstmal ein paar Wochen/Monate ob die -75mV auch überall halten. :wink: Wenn ja, guten Chip erwischt. Beim PT ist jeder vollkommen flexibel, ich erlaube meiner Karte max. 261W weil "nur" -40mV gehen. Würden -75mV gehen würde ich eher bei 250W oder etwas weniger dicht machen. Wäre trotzdem gleiche Performance wie Stock XT.

btw.
Hast du auch schon Samsung drauf?
94310

Ja da steht Samsung. Ist das schon ne neuere Variante? Ist das gut oder schlecht?

w0mbat
2025-10-06, 17:08:59
Es gibt halt zwei Varianten, eine mit SKHynix und die andere mit Samsung. Der SKHynix GDDR6 laeuft mit etwas tieferen Timings und ist ca. 3% schneller, wird dafuer aber auch 4-5 Grad waermer. Der Samsung Speicher ist etwas langsamer, aber eben kuehler. Gibt sich im Endeffekt nicht viel und ist egal.

dargo
2025-10-06, 17:19:16
Ja da steht Samsung. Ist das schon ne neuere Variante? Ist das gut oder schlecht?
Thermisch definitiv gut.

Der SKHynix GDDR6 laeuft mit etwas tieferen Timings und ist ca. 3% schneller, wird dafuer aber auch 4-5 Grad waermer.
Mach da eher ~10°C draus dann passt es.

horn 12
2025-10-06, 20:14:12
Ja, mit UV gehts noch mit dem SK Hynics Speicher
Komme auf 84 bis 86 Grad jetzt in Games mit 265 Watt und 9070 XT Hellhound
bei um die 1250 U/min

dargo
2025-10-06, 21:18:23
Dann sind es eher 15°C weniger mit Samsung. Ich komme kaum über 70°C Vram bei 1100RPM und 261W.

Master3
2025-10-13, 12:24:08
Ich habe nun seit Release -50mV stabil am laufen und ohne Abstürze bei verschiedensten Games am laufen. Battlefield 6 ändert das Ganze schlagartig.
Die ersten 2 Tage auch noch absolut stabil und gestern gleich 3x das Spiel gecrasht mit AMD Treiber Timeout. Daraufhin den 25.10.1 installiert, aber auch der crashte. Erst mit der Reduktion auf -40mV lief es wieder störungsfrei.
Die BF6 Beta lief auch noch bombenstabil bei -50mV.

Vielleicht andere Belastungen durch bestimmte neue Maps...wer weiß.

dargo
2025-10-13, 14:33:49
Mein worst case aus Ratchet & Clank: Rift Apart hätte dir das sicherlich auch bestätigt. :) Ich bin mittlerweile bei -45mV, -500Mhz und max. 261W für alle Games. Das überlebt die Szene in R & T noch mit 4k + FSR4 Quality, -50mV nicht mehr. :tongue: Alle anderen Games laufen damit auch problemlos bis jetzt.

Hakim
2025-10-13, 22:07:01
ich Persönlich würde mir bei den PT Bereichen keine Sorgen wegen dem 12VHPWR Adapter machen. Es gibt bei den 70XT nur einen einzigen Fall der Bekannt ist (Taichi) und auch bei NV bei nicht 5090 oder 4090 nur paar Fälle bei so vielen verkauften Karten.

Es wäre bei mir kein Grund die Nitro+ auszuschließen. Mit der Red Devil meine Favoriten Karte bei den 70XTs

Klar das jetzt auch ein Fall bei der Nitro passiert ist nachdem ich das geschrieben hatte :). Aber ich stehe dazu, zwei bekannte Fälle.

https://videocardz.com/newz/sapphire-radeon-rx-9070-xt-nitro-reportedly-suffers-first-melted-12v-2x6-connector-case

gedi
2025-10-13, 23:41:34
Mein worst case aus Ratchet & Clank: Rift Apart hätte dir das sicherlich auch bestätigt. :) Ich bin mittlerweile bei -45mV, -500Mhz und max. 261W für alle Games. Das überlebt die Szene in R & T noch mit 4k + FSR4 Quality, -50mV nicht mehr. :tongue: Alle anderen Games laufen damit auch problemlos bis jetzt.

Die -500 erschließen sich mir nicht. -500 bedeuten doch max. 2.95g? Mit 260w wirst du wohl kaum drüber liegen. Hier hätten es +/- 5 Mhz getan, nur um ein Limit zu setzen.

Ist zwar OT, aber mit derm letzten Beta geht es nicht weiter hinauf als 3.45g.

dargo
2025-10-14, 07:39:40
Die -500 erschließen sich mir nicht.
Dann hast du wenig Ahnung von N48.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13812359&postcount=2331
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13798998&postcount=2022

Ist doch wohl logisch, dass man mit -xxmV den Takt wieder anhebt und dieser im oberen Bereich besonders ineffizient dank höheren Voltages ist. Und es dürfte auch jedem bekannt sein, dass es unterschiedliche Heizlasten in Games gibt.

OgrEGT
2025-10-14, 08:29:39
Sapphire Radeon RX 9070 XT NITRO+ reportedly suffers first melted 12V-2×6 connector case
https://videocardz.com/newz/sapphire-radeon-rx-9070-xt-nitro-reportedly-suffers-first-melted-12v-2x6-connector-case

Da wurde wohl auch ein 12V2X6 auf 3x8Pin Adapterkabel verwendet...
Ohne Ampinell o.ä. käme mir so ein Schrott mit 12V2x6/ 12VHPWR nicht ins Haus...

Exxtreme
2025-10-14, 09:19:11
Naja, auch die 8-Pin-Stecker können durchbrennen:
https://www.reddit.com/r/watercooling/comments/15pfhgc/3080_8_pin_pci_cable_seems_to_have_melted_in_the/
https://www.reddit.com/r/pcmasterrace/comments/1esa6nd/melted_a_pin_on_one_of_the_8pin_connectors_on_my/

100% Sicherheit gibt es hier leider nicht.

Hakim
2025-10-14, 10:24:09
Bin da auch bei Exxtreme, Gott weiß wie viele 8pins durchbrennen, juckt halt keinen weil es zu den typischen RMAs gehört. Bei dem Stecker wird halt Reddit Story daraus gemacht. Nicht falsch verstehen bin auch kein großer Fan des Steckers bei den 4090 und vor allem 5090ern. Aber ja bei den 300w Karten wird es wie bei allen anderen RMA deffekten vermutlich nicht auffällig sein. Wie gesagt jetzt zwei bekannte Fälle. Aber kann ja jeder anderes sehen

OgrEGT
2025-10-14, 12:46:05
Naja, auch die 8-Pin-Stecker können durchbrennen:
https://www.reddit.com/r/watercooling/comments/15pfhgc/3080_8_pin_pci_cable_seems_to_have_melted_in_the/
https://www.reddit.com/r/pcmasterrace/comments/1esa6nd/melted_a_pin_on_one_of_the_8pin_connectors_on_my/

100% Sicherheit gibt es hier leider nicht.
Bei den Fällen die du genannt hast stehen nicht korrekt eingesteckte Stecker als Ursache im Raum... und die Verwendung von Adaptern... das Problem bei den 12V2x6/HPWR ist ja dass die Last Verteilung auch bei korrekt eingesteckten Steckern nicht immer gegeben ist und die Schaltung auf den Grakas das nicht überwachen (außer Astral) oder regeln kann... Außerdem bieten die neuen Stecker nur noch eine kleine Sicherheitsmarge... wenn man sich diese dünnen Kontakte und Buchsen anschaut können schon kleinste Unregelmäßigkeiten oder Verunreinigungen zu ungleicher Lastverteilung führen...
https://m.youtube.com/watch?v=kb5YzMoVQyw
Ob Sapphire oder Asrock die Schaltung ebenso ausgelegt hat keine Ahnung...

dildo4u
2025-10-18, 12:17:43
Paar Treiber Bremsen wurden gelöst z.b in The Hunt nur Spider Man 2 scheint Buggy

ummF3WRn_Iw

dargo
2025-10-18, 12:47:45
Was mich hier etwas überrascht ist die teilweise stark schwankende Upscaling-Skalierung je nach Game.

Star Wars Outlaws:
RTX 5070 = +18% bei Q vs. nativ
RX 9070 = +44% bei Q vs. nativ

Wie kommt sowas?

btw.
HWU hat noch nichts vom Optiscaler gehört. :tongue:

dildo4u
2025-10-18, 13:05:20
Niedrige Auflösung muss weniger Strahlen verschießen?
Im Cyberpunk hat die 9070 auch Probleme ohne Upsampling die Lows gehen auf 23fps vs 29 , mit Performance Upsampling 60 vs 65fps.
Der Abstand zur 5070 wird prozentual gesehen deutlich geringer.


https://youtu.be/ummF3WRn_Iw?si=r4oWFX7Ki8-CiaeN&t=672

dargo
2025-10-18, 13:17:27
Niedrige Auflösung muss weniger Strahlen verschießen?

Das soll jetzt das massiv stärkere Plus an Performance bei RX 9070 beim Upscaling erklären? :freak:


Im Cyberpunk hat die 9070 auch Probleme ohne Upsampling die Lows gehen auf 23fps vs 29 , mit Performance Upsampling 60 vs 65fps.
Der Abstand zur 5070 wird prozentual gesehen deutlich geringer.


https://youtu.be/ummF3WRn_Iw?si=r4oWFX7Ki8-CiaeN&t=672
Vergiss CP77... da hat CDPR die Frametimes auf Radeon ab einem bestimmten Patch völlig verkackt. CP77 ist ohne FG auf Radeon furchtbar bei der Frameausgabe.

dildo4u
2025-10-18, 13:37:07
Klar NV hat deutlich bessere RT Performance pro Shader Core wenn du komplexere RT Effekte nutzt ansonsten wäre eine 5070 TI nutzlos für Path Tracing.
Das macht alles Sinn die 9070 ist ein größerer Chip der im Schnitt aller Games deutlich schneller ist was sich zusammen schiebt wenn man nur RT Titel testen würde.

PCGHRT Index 5070 = 9070

https://www.pcgameshardware.de/Raytracing-Hardware-255905/Specials/Gaming-Grafikkarten-Vergleich-Benchmark-Preis-Leistung-1411231/2/

dargo
2025-10-18, 13:52:50
Hast du wieder Brett vorm Kopf oder was ist mir dir los? Wo ist da jetzt der Zusammenhang zum angesprochem Thema von mir bezüglich miserable Upscaling-Skalierung der RTX 5070 in Outlaws? Das Ding skaliert laut HWU mit lächerlichen 18% zwischen 1440p nativ und 960p Input + DLSS4 Overhead, falls du das nicht mitbekommen hast.

Bezüglich CP77 und Amateure @CDPR... alles mit 4k + FSR4-P inkl. RT Ultra.

non FG Stillstand
https://i.postimg.cc/p9fsT9CT/Cyberpunk2077-2025-10-18-13-41-30-623.jpg (https://postimg.cc/p9fsT9CT)

non FG Bewegung
https://i.postimg.cc/dkzRjw4p/Cyberpunk2077-2025-10-18-13-41-49-962.jpg (https://postimg.cc/dkzRjw4p)

FG Stillstand
https://i.postimg.cc/N26X8Ty1/Cyberpunk2077-2025-10-18-13-39-41-885.jpg (https://postimg.cc/N26X8Ty1)

FG Bewegung
https://i.postimg.cc/f3V021th/Cyberpunk2077-2025-10-18-13-49-40-364.jpg (https://postimg.cc/f3V021th)

Die Frametimes waren schon mal mit Radeon absolut sauber mit non FG (Flatline) vor wenigen Spielpatches wie gesagt.

dildo4u
2025-10-18, 13:57:01
Ich verstehe den Zusammenhang nicht die Tests von Hardware Unboxed nutzen keine FG ist CP77 allgemein mit AMD kaputt?

dargo
2025-10-18, 14:01:22
Ich habe gefragt warum die RTX 5070 so miserabel in Outlaws mit Upscaling vs. Radeon skaliert? Dann kamst du mit irgendwelchen Quatsch-Erklärung dazu und dann kamst du zusätzlich noch mit einem Beispiel von CP77 mit Lows. Daraufhin hatte ich gesagt vergiss CP77 weil es auf Radeon ohne FG kaputt ist durch die Unfähigkeit von CDPR seit ein paar Patches bezüglich Frameausgabe. Jetzt verstanden? Wenn mich nicht alles täuscht verstärkt RT auch noch bei non FG die schlechte Frameausgabe zusätzlich, bin mir da jetzt aber nicht ganz sicher.

Ex3cut3r
2025-10-18, 15:54:15
Was mich hier etwas überrascht ist die teilweise stark schwankende Upscaling-Skalierung je nach Game.

Star Wars Outlaws:
RTX 5070 = +18% bei Q vs. nativ
RX 9070 = +44% bei Q vs. nativ

Wie kommt sowas?

btw.
HWU hat noch nichts vom Optiscaler gehört. :tongue:

Wahrscheinlich ist der VRAM bei der 5070 schon voll....

Relex
2025-10-18, 17:23:01
Der Vergleich 9070 vs 5070 ist halt schon absurd.

Ja, gleicher Preis, aber Nvidia lässt sich seine Karten offensichtlich gut bezahlen und verlangt halt nen saftigen Aufschlag.

Mit DLSS, MFG, Pathtracing und co haben sie ja auch ihr Recht dazu und es funktioniert ja auch. Der richtige Gegenspieler wäre dann eben die deutlich teurere 5070ti.

Am Ende muss doch der Kunde entscheiden ob er dafür mehr zahlen will oder nicht.
Gerade deswegen macht ein Preis/Leistungs normierter Test der nur die Rohleistung in FPS misst besonders wenig Sinn, denn wenn die Leute nur das interessieren würde, wäre Nvidia gar nicht in der Lage mehr zu verlangen und damit erfolgreich zu sein, weils einfach niemand kaufen würde.

So ein Test verfehlt komplett die Realität.
Wer die Nvidia Features will muss deutlich mehr zahlen. Wer das nicht braucht fährt mit AMD deutlich günstiger. Welch eine Überraschung.

aufkrawall
2025-10-18, 17:29:31
Nö? Gab die 5070 Prime schon vor Monaten mehrfach für 500, da kommt die 9070 gerade erst hin.
Die passen schon beide für den Preis. Gibt immer Titel, die das eine Team Farbe x gut oder schlecht aussehen lässt, Breaking News.

Hakim
2025-10-18, 17:43:28
Die 9070 Karten sind im Durchschnitt teurer als die 5070er Karten, ist jetzt kein Wunder das die 9070 oft etwas schneller ist im Vergleich. HWUB hatte es mal im Vergleich 9070XT vs 5070Ti selber gesagt, wenn beide Karten etwa gleich schnell sind sollte die AMD Karte etwa ~20% weniger kosten wenn sie Attraktiv sein will.

dargo
2025-10-18, 17:50:32
Tut die RX 9070XT sogar genau vs. RTX 5070TI, zumindest in DE.

Raff
2025-10-18, 17:52:06
Paar Treiber Bremsen wurden gelöst z.b in The Hunt nur Spider Man 2 scheint Buggy

Ah, prima, die schwache RDNA-4-Performance in Hunt 1886 hatte ich mehrfach reported. :up:

btw.
HWU hat noch nichts vom Optiscaler gehört. :tongue:

Das ist eine Bastellösung für Turbonerds. So etwas ist nett und kann am Rande erwähnt werden, ist aber nichts, das in eine Kaufberatung gehört. ;)

[...] ist CP77 allgemein mit AMD kaputt?

Ja, das ist seit Version 2.3 "kaputt" - die zuvor tadellosen Frametimes sind jetzt mit jeder Radeon-Generation zuckeliger und "gummibanden" teilweise. Leider liest man nichts von CD Projekt bezüglich eines (geplanten) Fixes. :(

MfG
Raff

dargo
2025-10-18, 17:54:48
Ah, prima, die schwache RDNA-4-Performance in Hunt 1886 hatte ich mehrfach reported. :up:

Kannst du auch das mehrfach reporten? :D
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13828620&postcount=15

Ich überlege die ganze Zeit wie ich das denen erklären soll? :uponder: Am besten wahrscheinlich einmal mit freien Frames ein Video und einmal mit Framelimit über den Grafiktreiber. Keine Ahnung ob das lohnt da ja bald eh Redstone ansteht. Wird sicherlich eine neue Branch, womöglich ist das Problem dann schon Geschichte.

aufkrawall
2025-10-18, 17:59:45
Das hatte ich denen schon reportet, natürlich mit null Feedback oder sonst irgendwas. Wo wir wieder dabei wären, weshalb auch trotz -20% immer noch viele Leute lieber GeForce kaufen...
Benchmark-Tester interessiert so etwas nicht. Die schmeißen nur kurz Benchmarks an, gucken auf Balken und ggf. noch den irreführenden Frametime-Graphen, und zocken dann selber wieder mit GeForce.

dargo
2025-10-18, 18:09:57
Das hatte ich denen schon reportet, natürlich mit null Feedback oder sonst irgendwas.
Ähm... bei Millionen von Spielern erwarte ich persönlich jetzt nicht für jeden Pups unbedingt Feedback. :tongue: Das wäre glaube ich zu teuer. :freak: Naja... mal sehen was AFMF3 taugt. Wenn ich das richtig verstanden habe bedient man sich da bei den Motion Vectors bei FSR? Oder wie darf ich das verstehen? Weil in dem Fall wäre AFMF wieder sehr brauchbar.

Wo wir wieder dabei wären, weshalb auch trotz -20% immer noch viele Leute lieber GeForce kaufen...

Diese vielen Leute würden das nicht mal merken, das ist schon eher ein Nerd-Thema. Je höher die Frequenz vom Bildschirm (zb. 360Hz) umso geringer fällt der Masse Mikrostuttering auch auf. Imo kaufen viele Leute noch Geforce aus Macht der Gewohnheit. War bei Intel-CPUs auch viele Jahre bis Jahrzehnte der Fall. Du musst schon mehrere Generationen überzeugende Produkte mit gutem P/L liefern damit die meisten Gewohnheitstiere umgestimmt werden.

btw.
Ein banales Beispiel - wenn ich in AC-Shadows mit freien Frames und FG mich mit meinem Char im Kreis drehe und dabei den Blick nur auf den Char fokussiere sieht alles sauber aus obwohl die Frequenz am Bildschirm nicht zu den Frames passt. Achte ich aber genau auf die Umgebung sehe ich das Mikrostuttering mit freien Frames, welches übrigens je nach Szene auch unterschiedlich stark bsw. schwach überhaupt auffällt. Jetzt erkläre mal der Masse worauf die achten soll. :freak:

Hakim
2025-10-18, 18:11:18
Ja Feedback, mehr wie eine Standardisierte Danke für ihre Feedback sollte man nicht erwarten, sind bestimmt unzählige reports und wahrscheinlich bei vielen der User selber verursachtes Problem. Aber denke mal gibt ein Algorithmus was die Reports selektiert und bei einem Punkt was öfters Reportet wird eher Aufmerksamkeit widmet.

dargo
2025-10-18, 18:14:31
Ja Feedback, mehr wie eine Standardisierte Danke für ihre Feedback sollte man nicht erwarten, sind bestimmt unzählige reports und wahrscheinlich bei vielen der User selber verursachtes Problem. Aber denke mal gibt ein Algorithmus was die Reports selektiert und bei einem Punkt was öfters Reportet wird eher Aufmerksamkeit widmet.
Eben... und ich spreche hier schon wirklich ein eher nerdiges Thema an wo es speziell nur um FG geht.

aufkrawall
2025-10-18, 18:22:26
Eben... und ich spreche hier schon wirklich ein eher nerdiges Thema an wo es speziell nur um FG geht.
Ich hatte das mit FG schon vor Monaten erwähnt, trotzdem ging dir gerade selbst erst kürzlich das Licht auf. Und nein, mein Monitor flackerte auch ohne FG in Talos mit Radeon. Es merkt auch nur wieder keiner, weil Leute es aufs Spiel schieben, es nicht merken oder ihnen der Vergleich mit anderer Hardware fehlt.
Das ist die typische AMD-Krankheit, irgendwas ist immer.
Kann auch AMF in ffmpeg als Beispiel nehmen. Bei manchen Qualitäts-Flags (aus AMDs eigener AMF-Doc von Github...) bugt der Encoder einfach rum und freezt. Oder AMF ist beschränkter bei den Operationen und ich muss einige Sachen mit Copyback auf der CPU machen, die mit NVENC komplett auf der GPU laufen.
Noise Suppression oder das HQ-Videoscaling sind auch schon wieder gestorben. Usw., usw...

dargo
2025-10-18, 18:26:13
Ich hatte das mit FG schon vor Monaten erwähnt, trotzdem ging dir gerade selbst erst kürzlich das Licht auf.
Tja... da sieht du ja wie klein das Problem ist wenn ich schon etwas länger brauche um es zu merken. ;) Jetzt übertrage das mal auf die Masse und nicht paar Nerds aus einem 3DC. Ich brauchte halt etwas länger weil ich kein Interesse an FG hatte bis ich AC: Shadows in die Finger günstig bekam.


Ja, das ist seit Version 2.3 "kaputt"...
Bist du da sicher? Ich meine das ist schon länger der Fall. Afaik schon ab V2.0 oder V2.1.

Eadzon64
2025-10-18, 18:36:58
Optiscaler https://github.com/optiscaler/OptiScaler
Das ist eine Bastellösung für Turbonerds. So etwas ist nett und kann am Rande erwähnt werden, ist aber nichts, das in eine Kaufberatung gehört. ;)

MfG
Raff

wenn Du das sagst,
die zeiten in denen die PCGames was zu melden hatte sind auch lange vorbei!
was Du Turbonerds nennst, kann jeder mündige User ohne Probleme machen
aber lieber dumm halten, damit verdienen ja viele ihr Geld
ach, wie war das nochmal mit deiner 6000er Voodoo
du nennst andere Nerds;D
da zündest jetz aber schon den Turbo

dargo
2025-10-18, 18:42:46
Das ist eine Bastellösung für Turbonerds. So etwas ist nett und kann am Rande erwähnt werden, ist aber nichts, das in eine Kaufberatung gehört. ;)

Schwierig... so kompliziert finde ich den Optiscaler gar nicht. Jetzt mal FG-Möglichkeiten vielleicht ausgeklammert. Wenn paar Dateien austauschen schon einen PC-Spieler überfordern mache ich mir ernsthafte Sorgen über den IQ der Menschheit. Und einen Linux-User kannst du damit sicherlich auch nicht meinen. Der wird über eine angebliche Komplexität in der Anwendung vom Optiscaler nur müde lächeln. Imho gehört das schon in eine Kaufberatung mit rein. Gerne als optionaler Hinweis, dass ein RDNA4 Käufer aktuell überall FSR4 haben kann wo DLSS oder XeSS drin steckt. Zusätzlich auch noch Antilag 2. Nur bei MP-Games sollte man dann vorsichtshalber warnen. Ok... Vulkan ist auch noch offen, denke aber das kommt mit Redstone.


ach, wie war das nochmal mit deiner 6000er Voodoo
du nennst andere Nerds;D

1:0 für dich. ;)

Freestaler
2025-10-18, 20:21:11
Da bin ich bei Raff gerade wegen Auswirkung bei MP-Titel und AntiCheat Tools. Anders als z.B. per Software freigeschaltete Shader ist das nicht einfach wieder zu deaktivieren. Der Ban steht und somit ist das Game und Geld weg. Separat für versierte User aber nicht als Empfehlung bei 0815 Kaufenpfehlung der Karten.

Hakim
2025-10-18, 20:27:58
Ich persönlich bin auch kein Freund von, aber gibt bisher glaub ich keinen einzigen bekannten Fall wo jemand deswegen gebannt wurde, zumindest keins wo drüber Berichtet wurde. Aber ja ich würde es nicht darauf ankommen lassen :)

Ex3cut3r
2025-10-18, 20:36:48
Ich hatte früher den OptiScaler zusammen mit Ampere ausprobiert, weil ich damals noch auf FSR Frame Generation angewiesen war. Allerdings sind mir mit dem OptiScaler ständig Spiele abgestürzt, also hab ich ihn schnell wieder entfernt. Ist das inzwischen besser geworden? Für mich wirkte das Ganze wie eine halbgare Bastellösung. Reshade lief da deutlich stabiler.

Inzwischen habe ich mir eine Blackwell-Karte zugelegt und brauche so etwas zum Glück nicht mehr. Nvidias Frame Generation bietet einfach die bessere Bildqualität, das sauberere Frame Pacing und mit MFG dazu ist das auf einem 240 Hz OLED-Monitor schlicht unschlagbar.

dargo
2025-10-18, 21:01:13
Ich hatte früher den OptiScaler zusammen mit Ampere ausprobiert, weil ich damals noch auf FSR Frame Generation angewiesen war. Allerdings sind mir mit dem OptiScaler ständig Spiele abgestürzt, also hab ich ihn schnell wieder entfernt. Ist das inzwischen besser geworden?
Ja, hier stürzt nichts mit dem Optiscaler ab.

Nvidias Frame Generation bietet einfach die bessere Bildqualität, das sauberere Frame Pacing...
Und wieder geht die Märchenstunde hier los.

aufkrawall
2025-10-18, 21:04:05
Nvidias Frame Generation bietet einfach die bessere Bildqualität

Leider imho richtig schlecht gegen Intel-FG, zumindest bei 2x vs 2x.


das sauberere Frame Pacing
Das auf jeden Fall.

Raff
2025-10-18, 21:55:46
Bist du da sicher? Ich meine das ist schon länger der Fall. Afaik schon ab V2.0 oder V2.1.

Jau, ich bin sicher, da ich quasi jeden Tag Nachtests für den Leistungsindex mache und daher ~35 Spiele stetig monitore. Leider finde ich gerade keines der Postings, bei denen Gurdi aus dem PCGH-Forum das bestätigt, aber eventuell morgen. €dit: Habe was gefunden! :)

https://www.youtube.com/watch?v=bxBE3u6jQTY&t=1305s

wenn Du das sagst,
die zeiten in denen die PCGames was zu melden hatte sind auch lange vorbei!
was Du Turbonerds nennst, kann jeder mündige User ohne Probleme machen
aber lieber dumm halten, damit verdienen ja viele ihr Geld
ach, wie war das nochmal mit deiner 6000er Voodoo
du nennst andere Nerds;D
da zündest jetz aber schon den Turbo

Ich arbeite nicht für die PC Games. Und das "Turbonerds" war keineswegs negativ gemeint. Eigentlich möchtest du das aber gar nicht diskutieren, sondern einfach bisschen trollen, richtig? Du musst nicht antworten, die Sache ist klar. :)

Leider imho richtig schlecht gegen Intel-FG, zumindest bei 2x vs 2x.

Findest du? Da du beim Thema Upsampling & Co. ein gutes Auge hast und kritisch bist, hat deine Meinung für mich Gewicht. In welchen Spielen findest du XeSS FG denn besonders gut? Was ich zuletzt sah (u. a. in Battlefield 6) gefiel mir gar nicht.

MfG
Raff

Ex3cut3r
2025-10-18, 23:13:19
Ja, hier stürzt nichts mit dem Optiscaler ab.


Und wieder geht die Märchenstunde hier los.

Warum? Nur weil es dir nicht passt?

Ich hatte in den letzten Jahren oft Probleme mit AMD FSG auf Ampere-Grafikkarten. Anfangs lief alles gut, aber irgendwann kam es zu extrem schlechtem Frame Pacing – und das wurde nie behoben. Außerdem unterstützt AMD kein MFG, was bei 240 Hz wirklich ein Game Changer ist.

aufkrawall
2025-10-19, 00:06:37
Findest du? Da du beim Thema Upsampling & Co. ein gutes Auge hast und kritisch bist, hat deine Meinung für mich Gewicht. In welchen Spielen findest du XeSS FG denn besonders gut? Was ich zuletzt sah (u. a. in Battlefield 6) gefiel mir gar nicht.

In der Talos 1 Open Beta kann man es normal im Menü auswählen, und da zeigt es massiv weniger Garble-Bereiche als DLSS 4 FG. Die fallen mir mittlerweile auch überall sonst auf.
Sind aber trotzdem das geringste aller Übel, was das Gesamtergebnis mit dem realen Frame Pacing und den Gewinn an Flüssigkeit durch MFG angeht. Kann mir mittlerweile eigentlich nichts mehr mit unter 120fps geben.

dargo
2025-10-19, 08:13:11
Außerdem unterstützt AMD kein MFG, was bei 240 Hz wirklich ein Game Changer ist.
Marketinggeblubber eines Usern mit grünem Bias, nichts weiter.


Ich hatte in den letzten Jahren oft Probleme mit AMD FSR auf Ampere-Grafikkarten.
Und was hat das jetzt mit FSR @Radeon zu tun? Vor allem... welcher Ampere-User braucht überhaupt FSR? :freak:

Relex
2025-10-19, 09:19:55
Bist du da sicher? Ich meine das ist schon länger der Fall. Afaik schon ab V2.0 oder V2.1.

Bei Cyberpunk ist doch auch FSR FG allgemein kaputt, weil nur ein winziger Teil des Bildes überhaupt interpoliert wird. Da muss man mit Optiscaler ran um das zu fixen.


Edit: da ist das zitat grad abhanden gekommen

dargo
2025-10-19, 09:21:08
Das haben die auch noch kaputt hinbekommen? Jesus...

The_Invisible
2025-10-19, 10:31:05
Lol optiscaler soll für die Masse sein... Da sieht man mal welche nerdblase hier ist

dargo
2025-10-19, 10:53:56
Lol optiscaler soll für die Masse sein... Da sieht man mal welche nerdblase hier ist
Das sagt der Richtige. :lol: Offenbar flattert schon das Höschen wenn Radeon aufschließt. :rolleyes:

Jau, ich bin sicher, da ich quasi jeden Tag Nachtests für den Leistungsindex mache und daher ~35 Spiele stetig monitore. Leider finde ich gerade keines der Postings, bei denen Gurdi aus dem PCGH-Forum das bestätigt, aber eventuell morgen. €dit: Habe was gefunden! :)

https://www.youtube.com/watch?v=bxBE3u6jQTY&t=1305s

Kann sein, ich meinte das kam mit V2.1 schon. Aber egal... Fakt ist, dass die Amateure von CDPR nicht mit Radeon umgehen können seit Patch X. Und wie kann es auch anders sein muss der Optiscaler wieder die Unfähigkeit von CDPR ausbügeln. Ich hatte hier schon mal gezeigt wie es mit 4k + FSR4-Performance aussieht wenn man die offizielle Ingameschiene wählt.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13828679&postcount=2405

Hier als Vergleich der Optiscaler wo ich als Input XeSS fürs Upscaling von FSR4 nehme und Nukems-FG, sprich DLSS-FG Ingame.

4k + FSR4-Performance mit RT-Ultra ohne FG
94436

4k + FSR4-Performance mit RT-Ultra inkl. Nukems-FG
94437

Wesentlich bessere Frametimes mit XeSS als Input und mit Nukems-FG praktisch dann eine Flatline. Der eine Spike wird sicherlich von der Shader-Kompilierung gekommen sein. Ich habe das Game erst frisch installiert, da muss man etwas durch die Stadt fahren bis sowas überhaupt nicht mehr vorkommt.

PS: Pooling vom AB stand auf 250ms.

btw.
Und ich bin da voll bei Eadzon64... eine Redaktion wie zb. die PCGH sollte den Spielern Wissen vermitteln um die Spielerfahrung dieser Spieler zu verbessern! Und nicht "dumm" sterben lassen. Insbesondere wo man nicht selten sieht, dass manche DEVs zu dämlich sind beste Spielerfahrung den Spielern zu vermitteln.

Relex
2025-10-19, 12:03:44
Nur so am Rande... Bevor man sich völlig auf die Frametimes mit FG versteift sollte man sich die Frage stellen, ob ein vermeintlich sauberer Graph überhaupt dafür sorgt, dass sich das Spiel smoother anfühlt.

Siehe dieses video:
qDnXe6N8h_c

Was ist, wenn die in den Frames dargestellte Animation tatsächlich zeitlich zur scheinbar ungleichmäßigen frameausgabe passt bzw. was ist, wenn man zwar auf dem graphen perfektes Framepacing via Limiter erzwingt, die Frames inhaltlich aber gar nicht an diese Position im Zeitstrahl gehören? Gerade mit Frame Generation wird das sehr komplex.

Man muss also entscheiden: Wissen es die Hersteller wie AMD, Nvidia und Intel besser oder glaubt man wirklich, mit manuellen Eingriffen tatsächlich was verbessern zu können?
Möglicherweise rennt man einem vermeintlichem Optimalzustand nach, der vielleicht gar nicht besser ist.

Für mich ein weiterer Grund, warum mich Frametime Graphen schon länger nicht mehr interessieren und ich alles nur noch per Auge oder notfalls 240 FPS Video Aufnahme vom Smartphone beurteile.

dargo
2025-10-19, 12:50:38
Nur so am Rande... Bevor man sich völlig auf die Frametimes mit FG versteift sollte man sich die Frage stellen, ob ein vermeintlich sauberer Graph überhaupt dafür sorgt, dass sich das Spiel smoother anfühlt.

Tut er in meinem Fall wenn die Frames zur Bildschirmfrequenz mit einem Framelimit bei FG passen. Einfach im Kreis mit dem Vehikel fahren und auf die Umgebung achten, ist nun wirklich keine Raketenwissenschaft. Nicht ein Hauch von Mikrostutter.


Siehe dieses video:
https://youtu.be/qDnXe6N8h_c

Eine neue Metrik @Animationsfehler? Habe ich nichts gegen.

Relex
2025-10-19, 13:19:27
Ja genau so. Braucht halt ne gleichmäßige Bewegung. Alternativ Gamepad mit Analogstick.

Habs nur erwähnt, weil du die Frametime Graphen gepostet hat. Das kann sich mit dem optischen Ergebnis decken, muss es aber nicht. Und genau das ist das Problem. Man kann sich nicht drauf verlassen.

dargo
2025-10-19, 13:33:18
Bisher deckte sich das immer mit meinem optischen Eindruck. Es sei denn es ist irgendwas kaputt wie zb. aktuell FG bei RDNA4 mit freien Frames. Dann habe ich eine Flatline im Graphen und trotzdem gibt es gelegentlich Mikrostutter im Bild (je nach Bewegung) weil die Frequenz am Bildschirm nicht zu den Frames passt.

btw.
Das in GoW: Ragnarök ist auch zu köstlich. :ulol:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13829081&postcount=16

Ex3cut3r
2025-10-19, 14:25:47
Marketinggeblubber eines Usern mit grünem Bias, nichts weiter.

Wieso das? MFG ist tatsächlich ziemlich stark, gerade wenn man’s mit Performance-DLSS kombiniert oder sowieso schon hohe Basis-FPS hat. Mit Reflex ist der Unterschied beim Input-Lag, siehe meine Doom Dark Ages Bilder fast zu vernachlässigen.


Und was hat das jetzt mit FSR @Radeon zu tun? Vor allem... welcher Ampere-User braucht überhaupt FSR? :freak:
Wieso nicht? Ampere hat nun mal kein Nvidia FG bekommen, da ergibt die Kombination aus DLSS + AMD FG absolut Sinn.
Aber klar, das muss man erstmal verstehen, bevor man drüber urteilt.

Daredevil
2025-10-19, 14:37:59
Einfach im Kreis mit dem Vehikel fahren und auf die Umgebung achten, ist nun wirklich keine Raketenwissenschaft.
Das war bei mir auch immer ein Benchmark beim Gamestreaming. ^^
Rocket League, Training Area öffnen und im Kreis fahren, dabei merkt man dann wirklich schnell, obs irgendwo nicht rund läuft.

dargo
2025-10-19, 14:38:18
Wieso nicht? Ampere hat nun mal kein Nvidia FG bekommen, da ergibt die Kombination aus DLSS + AMD FG absolut Sinn.

Vielleicht mal beim nächsten Mal genauer lesen was du schreibst? Nur so ein Tipp.

Ich hatte in den letzten Jahren oft Probleme mit AMD FSR auf Ampere-Grafikkarten.

Ex3cut3r
2025-10-19, 14:44:35
Oh wow, wirklich jetzt? Dann bist du ja noch mehr am Trollen, als ich ohnehin schon dachte. Du wusstest doch von Anfang an, dass ich FG meinte.

Und zu dem ersten Punkt bezüglich FG kommt natürlich wieder nichts. Echt schade. Na dann, weiterhin viel Spaß mit AMD FG, läuft ja laut deinen Beiträgen zu God of War Ragnarök richtig super, oder?

dargo
2025-10-19, 14:52:55
Dort brauche ich es nicht mal, also troll dich. Vielleicht bist du einfach nur zu noobig um AMDs FG richtig zu verwenden. Man weiß es nicht.

Lurtz
2025-10-21, 21:19:10
Nur so am Rande... Bevor man sich völlig auf die Frametimes mit FG versteift sollte man sich die Frage stellen, ob ein vermeintlich sauberer Graph überhaupt dafür sorgt, dass sich das Spiel smoother anfühlt.

Siehe dieses video:
https://youtu.be/qDnXe6N8h_c

Was ist, wenn die in den Frames dargestellte Animation tatsächlich zeitlich zur scheinbar ungleichmäßigen frameausgabe passt bzw. was ist, wenn man zwar auf dem graphen perfektes Framepacing via Limiter erzwingt, die Frames inhaltlich aber gar nicht an diese Position im Zeitstrahl gehören? Gerade mit Frame Generation wird das sehr komplex.

Man muss also entscheiden: Wissen es die Hersteller wie AMD, Nvidia und Intel besser oder glaubt man wirklich, mit manuellen Eingriffen tatsächlich was verbessern zu können?
Möglicherweise rennt man einem vermeintlichem Optimalzustand nach, der vielleicht gar nicht besser ist.

Für mich ein weiterer Grund, warum mich Frametime Graphen schon länger nicht mehr interessieren und ich alles nur noch per Auge oder notfalls 240 FPS Video Aufnahme vom Smartphone beurteile.
Interessanter Ansatz, scheint bisher aber keine größeren Wellen zu schlagen?

Ich habe bisher auch nicht verstanden, wie man diesen Animation Error genau messen kann, müsste die Engine nicht in irgendeiner Form mitteilen, was die korrekte "Animation" zum gerade anliegenden Frame ist?
DF meinten ja bei Jedi Survivor dass die Animationen immer falsch wiedergegeben werden, egal wie gut das Frame Pacing ist. Fällt das auch unter diese Form der Animation Errors oder ist das nochmal eine andere Problematik.

Na mal sehen was noch daraus wird. In dem Video zweifeln sie ja an, ob (M)FG gerade mit Flip Metering überhaupt ohne Animation Errors funktionieren kann. Andererseits frage ich mich auch obs bei 200 fps aufwärts überhaupt noch eine relevante Anzahl an Spielern gibt, die das wahrnehmen können, oder man sich da langsam endgültig in die diminishing returns begibt.

Prinzenrolle
2025-10-21, 23:13:00
Lol optiscaler soll für die Masse sein... Da sieht man mal welche nerdblase hier ist

Ansonsten heißt es immer, man will keine Drittherstellersoftware wie den Afterburner installiert haben. :biggrin:

Spaß beiseite, der Optiscaler ist eine feine Sache.

Relex
2025-10-22, 03:14:42
In dem Video zweifeln sie ja an, ob (M)FG gerade mit Flip Metering überhaupt ohne Animation Errors funktionieren kann. Andererseits frage ich mich auch obs bei 200 fps aufwärts überhaupt noch eine relevante Anzahl an Spielern gibt, die das wahrnehmen können, oder man sich da langsam endgültig in die diminishing returns begibt.

Na ja, der Unterschied ist, altes Software Flip Metering vs neues Software Flipmetering (Ada) vs neues Hardware Flipmetering (Blackwell). Flip metering an sich ist ja sicher nicht das Problem. Aber es muss halt korrekt funktionieren. Da muss dann eben sowohl der Algorithmus für die Zwischenbilder als auch das Framepacing sauber zusammenspielen, auch dann möglichst sauber in verbindung mit möglicherweise je nach Spiel stärker variierenden Frametimes und zugleich mit möglichst geringer latenz. Das ist sicher alles nicht so einfach….

Auf Ada und Blackwell ist es ja nochmal deutlich smoother geworden, ich würde sagen von vorher „befriedigend“ oder auch „gut“ zu „sehr gut“, während FSR FG auch hin und wieder deutlichere Probleme damit hat, so dass es sogar in tests wie z.B. bei CB auffällt.

Ich denke schon, dass das Problem bei FG und vor allem mit MFG komplexer ist. Aber so wie es aussieht ist den Herstellern oder offensichtlich zumindest Nvidia sehr bewusst, sonst hätten sie ja nicht genau dort bereits in Software und Hardware (mit erfolg) nachgebessert.
Von AMD würde ich mit Redstone ähnliches erwarten.

Mit FG haben die Hersteller sicher viele Möglichkeiten, die Frameausgabe zu korrigieren oder zu optimieren oder aber auch komplett zu ruinieren.

dargo
2025-10-22, 07:06:08
... während FSR FG auch hin und wieder deutlichere Probleme damit hat, so dass es sogar in tests wie z.B. bei CB auffällt.

Hast du mal einen Link parat?

dildo4u
2025-10-22, 08:38:09
Integieren Entwickler FSR FG ohne Anti Lag?


FSR FG hinkt klar hinterher

AMD FSR Frame Generation hinkt vom Spielgefühl klar hinterher, denn eine bessere Latenz gibt es hier mit den künstlichen Bildern definitiv nicht – das lässt sich ohne größeren Aufwand zwar nicht messen, aber zweifellos spüren. Daher empfiehlt die Redaktion FSR FG auch erst ab einer Render-Framerate von 55, besser 60 FPS, vorher wird die Steuerung mit FSR FG sehr indirekt

https://www.computerbase.de/artikel/gaming/cronos-the-new-dawn-benchmark-test.94464/seite-2#abschnitt_benchmarks_mit_frame_generation

dargo
2025-10-22, 09:00:49
Manche ja, manche nein.

Und Antilag gibt es nur im Treiber, wenn schon muss Antilag 2 von DEVs integriert werden. Sehe da bei Cronos aber Null Probleme. Einfach den Optiscaler nehmen und schon hat man Antilag 2 über Reflex drin. CB hinkt da etwas hinterher. ;) Die Empfehlung von CB mit 55-60 Baseframes für FG würde ich nicht mal mit Antilag 2 teilen. :tongue: Ok... für die Masse mag das reichen.

Edit:
Ich würde denke ich so spielen, das Movement ist in diesem Spiel eh recht langsam bzw. träge.
https://i.postimg.cc/14kLPgWH/Cronos.jpg (https://postimg.cc/14kLPgWH)

dargo
2025-10-22, 18:04:23
So... nach nun 6 Wochen ist das hier jetzt zu 99,9% stabil (VSOC im Bios = 875mV). Im Prinzip war also nur der SoC mit der neuen Graka zu tief angesetzt da sich die Limits etwas stärker Richtung CPU verschoben haben.
94482

Überwiegend mit AC: Shadows getestet, mittlerweile 110 Spielstunden auf der Uhr. :freak: AC: Shadows war noch etwas zickiger beim SoC als TLOU. Und ja... niedrigere Spannungen bei CLDO und VDDG stabilisieren den SoC. Sprich... dann geht beim SoC etwas weniger. Wobei VDDG-CCD hier keine Rolle spielen sollte, ist ja nur ein CCD verbaut. :tongue: Bei der Graka funzen -45mV, -500Mhz und max. 261W auch überall fehlerfrei. (y) So bleibt das erstmal 24/7. :)

dargo
2025-10-28, 19:51:05
Yeston gewährt den Einblick in deren Produktion von RX 9070 (XT). Vielleicht interessiert sowas den einen oder anderen.

dmXVK9ia5Nc

HOT
2025-10-28, 19:56:44
Die produzierten Karten und Chips sehen aber eher wie 7800XT aus.

dargo
2025-10-28, 19:58:06
Sind mehrere, irgendwas mit HBM habe ich da auch gesehen.

Nee.... dürfte dann N32 sein. Schon komplett das Design von N32/N31 vergessen. :tongue:

Edit:
Irgendwie tun mir die Mitarbeiter da am Fließband leid. Das wäre Höchststrafe für mich als Arbeit, stinklangweilig. ;(

dmsephiroth
2025-11-04, 04:34:26
Gibt es endlich mal greifbare News zu FSR Redstone?

Sollte das nicht schon verfügbar sein oder kann man 2. Jahreshälfte 2025 nimmer ernst nehmen?

dargo
2025-11-04, 06:33:14
Was verstehst du jetzt nicht unter 2. Jahreshälfte?

Pirx
2025-11-04, 07:50:30
sowas bedeutet bei AMD ca. 31.12.

dildo4u
2025-11-04, 08:19:12
FSR4 wurde mit COD6 gelauncht vieleicht Redstone mit COD7 aber das hat kein RT.
Bedeutet FSR4 für RDNA3/4 sonst nix.

dargo
2025-11-04, 08:27:19
Vielleicht dies, vielleicht jenes... es heißt 2H 2025.

https://static.tweaktown.com/news/1/0/107614_2_ams-confirms-fsr-redstone-is-still-on-track-for-2025-full-presentation-coming-soon_full.jpg

Keine Ahnung was dieses "Jammern" einzelner Member wieder soll. :rolleyes: Kommt bis 31.12.25 kein Redstone könnt ihr gerne jammern.

Lurtz
2025-11-04, 08:53:19
Bis 31.12. wird es schon in zwei, drei Sony-Titeln verfügbar sein. Viel mehr wahrscheinlich auch nicht. Wobei immerhin der Super Resolution-Part ja jetzt in jedem upgradebaren 3.1-Spiel verfügbar sein dürfte (ansonsten Optiscaler).

mironicus
2025-11-06, 14:10:42
Gibt es eigentlich Berichte, wie gut sich die AMD-Karten für KI eignen? Also LLM, generative KI und Videos? Benchmark mit Comfy-UI etc.

dargo
2025-11-07, 20:18:15
Cashback für die RX 9070XT Hellhound ist da. (y)
94568

Ziemlich genau 3 Monate.

raffa
2025-11-08, 05:24:21
Gibt es eigentlich Berichte, wie gut sich die AMD-Karten für KI eignen? Also LLM, generative KI und Videos? Benchmark mit Comfy-UI etc.

efQPFhZmhAo