PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD Software: Adrenalin Edition 23.10.01.41 for Additional Vulkan Extensions


aufkrawall
2023-06-27, 13:57:35
https://www.amd.com/en/support/kb/release-notes/rn-rad-win-23-10-01-41-vlk-extn

Erster Treiber mit 23.10 Branch mit Unterstützung für alle Karten, inkls. RDNA3 Idle-Verbrauch-Fix (wird wohl wieder bei manchen Usern was bringen, bei anderen nicht).

Skusi
2023-06-27, 14:56:46
Meine nitro xtx ist von 16 auf 11w idle runter. supi

Exxtreme
2023-06-27, 15:10:47
Es geht eher darum, dass der Idle-Verbrauch von 30 W auf 10 W runtergeht oder so. Bin aber gespannt wie sich der Treiber in Teillast verhält. Da sah RDNA3 bisher echt schlecht aus.

Edit: mit zwei Displays und bei 120 Hz ging das auf bis zu >100 W im Leerlauf hoch.
https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/Tests/Radeon-7900-XTX-7900-XT-Test-Benchmark-Review-1409055/5/

aufkrawall
2023-06-27, 15:15:38
Davon steht ja nichts in den Notes. Ich würde auch eher weniger damit rechnen, ggf. ein Hardware-Limit. Erinnert schon sehr an Chiplet-Ryzens.

Gast
2023-06-27, 15:29:56
Es geht eher darum, dass der Idle-Verbrauch von 30 W auf 10 W runtergeht oder so. Bin aber gespannt wie sich der Treiber in Teillast verhält. Da sah RDNA3 bisher echt schlecht aus.


Das Powermanagement von RDNA3 ist einfach dämlich hoch 3.

Sehe ich gerade schön an meinem ROG-Ally.

Stelle ich einen Framelimiter unter der Leistungsfähigkeit der GPU ein:
Am Desktop: Verbrauch sinkt massiv.

ROG-Ally: GPU-Auslastung sinkt --> mehr Platz im Powerlimit --> Takt steigt --> GPU hängt wieder im Powerlimit (bei dann noch niedrigerer GPU-Auslastung).
WTF soll der Bullshit? Klar kann man dann auch das Powerlimit senken ohne Leistung zu verlieren, aber das sollte bei übermäßig vorhandener Leistung von selbst passieren und nicht einfach unnötig der Takt erhöht werden wenn gerade eh Leistung im Überfluss vorhanden ist. Und die Reduktion des Powerlimits hat dann den Nachteil, dass man keine Reserven für anspruchsvollere Szenen hat.

Wiseman
2023-06-27, 17:02:24
Meine nitro xtx ist von 16 auf 11w idle runter. supi

Und meine Hellhound 7900XTX ist von 12W auf 7W idle runter. Schwankt nun in Idle zwischen 7W und 11W.

Supi-dupi, AMD.

HOT
2023-06-27, 17:11:54
Davon steht ja nichts in den Notes. Ich würde auch eher weniger damit rechnen, ggf. ein Hardware-Limit. Erinnert schon sehr an Chiplet-Ryzens.
Chiplet Ryzen hat kein Idle-Limit. Der "hohe" idle-Verbrauch ist ein Auslesefehler.

aufkrawall
2023-06-27, 17:13:55
Es ging darum, dass, unabhängig von komplettem Idle, Chiplet-Ryzen bei Teillast deutlich mehr verbrät als monolithisch.

HOT
2023-06-27, 17:18:53
tut er das?

AintCoolName
2023-06-27, 17:48:07
Der Treiber, der aus dem Windows Update kommt (31.0.22000.11023), hat GPU Hardware Scheduling. Hat der das auch?

aufkrawall
2023-06-27, 17:48:55
Er tut:
eJPGiJ3csx8

Die ~300MHz Unterschied dürften relativ egal sein, weil auch beim G die Spannung bei irgendwas um die absurden 1.35V (bzw. lief damit schon der Ryzen 5500) liegen wird.

BTT

Der Treiber, der aus dem Windows Update kommt (31.0.22000.11023), hat GPU Hardware Scheduling. Hat der das auch?
Nein, der UWP Preview-Treiber ist Branch 23.20. HAGS funktioniert damit mit RDNA2 aber noch nicht richtig (Spikes) und der 23.10.01.41 hat mehr Game-Fixes wie den gefixten RAM-Verbrauch in TLOU nach Shader-Compile.

anddill
2023-06-27, 19:27:05
So, grad mal installiert. Die Grafikkarte selber ist damit von ~100W auf ~90W runter am Desktop, aber die Gesamtleistungsaufnahme des PCs an der Steckdose ist von ~200W auf ~173W runter. VRAM Takt klebt immer noch auf Volldampf, keine Ahnung wo die die handvoll Watt eingespart haben.
Naja, nett, aber immer noch mehh. Da wird wohl nicht mehr viel kommen für Leute wie mich mit verschiedenen Monitoren.

Gast
2023-06-27, 23:23:53
tut er das?

Ja tut er, und eine 2CCX Chiplet-CPU ist noch deutlich schlimmer.

GerryB
2023-07-01, 07:22:32
CRU soll mit dem Treiber wieder funzen.

dargo
2023-07-01, 07:50:01
Und meine Hellhound 7900XTX ist von 12W auf 7W idle runter. Schwankt nun in Idle zwischen 7W und 11W.

Nicht schlecht, das wäre ja sogar unter RDNA2 bzw. N21. :eek:

CRU soll mit dem Treiber wieder funzen.
Was soll das heißen? Lässt sich endlich mit CRU bei N31 die Freesync-Range verschieben/ändern?

nordic_pegasus
2023-07-01, 10:38:35
Meine nitro xtx ist von 16 auf 11w idle runter. supi

meine 7900XTX Nitro+ ist von 60 Watt im Idle auf 15 Watt runter (Total Board Power in HWiNFO ausgelesen). Ich habe einen 4K OLED mit 138 Hz angeschlossen.

Der Gesamtverbrauch des Systems ist von 125-130 Watt im Idle auf ca. 85 Watt runter (Corsair Netzteil mit USB-Schnittstelle, ebenfalls mit HWiNFO ausgelesen).

Achill
2023-07-01, 10:54:52
CRU soll mit dem Treiber wieder funzen.


[..]
Was soll das heißen? Lässt sich endlich mit CRU bei N31 die Freesync-Range verschieben/ändern?

Das wäre doch interessant. Kann/Will das jemand testen?

aufkrawall
2023-07-01, 20:31:56
Der Treiber kann wohl Semi-Freeze-Probleme mit zumindest RDNA2 machen, sodass Windows sporadisch etwa bei Vollbild-Wechseln bei 1fps festhängt.
Gab einen neuen UWP Preview-Treiber, mit dem hab ich das Problem bislang nicht. Macht auch keine Ruckler mit HAGS mehr auf RDNA2.

Nightspider
2023-07-02, 00:11:54
Das man 8 Monate nach dem Release gebraucht hat um den Idle Verbrauch auf das Niveau zu senken, welches die Hardware bereits konnte....

aufkrawall
2023-07-02, 00:20:34
Tja, und mit einer MSI 4090 Suprim werden noch heute 40W Idle zumindest via Treiber-Sensor gemeldet.
Whataboutism? Ja, aber trotzdem. :redface:

Nightspider
2023-07-02, 00:23:42
Wie viel säuft die 4090 eigentlich aktuell bei 175/144Hhz Mutli Displays Setups ?

aufkrawall
2023-07-02, 00:26:00
Da bin ich überfragt. Könnte aber sein, dass mit VRR eine hohe Aktualisierungsrate und damit VRR-Range für beide Geräte sogar hilfreich sein könnte anstatt schwieriger für den Treiber bez. dynamischer VRAM-Taktung.

Wiseman
2023-07-02, 00:59:51
Das man 8 Monate nach dem Release gebraucht hat um den Idle Verbrauch auf das Niveau zu senken, welches die Hardware bereits konnte....

Also ich komme auf 6 Monate. Von Mitte Dezember 22 bis Mitte Juni 23.

Christopher_Blair
2023-07-02, 07:49:32
Ich hoffe am Verbrauch unter Teillast wird auch noch gearbeitet, hatte gehofft dass es bis zum Sommer besser ist.

GerryB
2023-07-02, 09:54:54
Du kannst ja Teilllast per Fps-Limit erzwingen
und
per FSR2 im Hochsommer die Temps+Lautstärke senken.

4k@FSR2-60fps sollte doch ungefähr so sein wie nativ1440p@60fps
(das AMD net extra noch nen Sparmodus für eff.1080p hat sei verziehen, das ist eeh nur brotlose Kunst für dumb Reviews)

Christopher_Blair
2023-07-02, 13:46:25
Nö, Teilllast ist einfach eine Katastrophe in 4K, HDR, VRR mit 7900XTX.

Diablo 4, 4K nativ, HDR, ~130 FPS, ~350W.
Egal was man macht, unter ~160W geht es nie.
Selbst 4K mit FSR Ultra Performance und Treiber 60FPS Limit ziehen weiterhin ~160W.
Streetfighter 6, CoD, WoW etc. unter Teillast sind es immer deutlich über 100W.

Liegt vielleicht an HDR, VRR oder 4K Auflösung, ka, AMD sollte hier endlich mal abliefern.

Edit: Desktop ist ok, 4K, 120HZ ~20W.

HOT
2023-07-02, 13:47:54
Ähm, wenn die Karte Vollast liefert dank HDR 4k usw. läuft sie dann wohl auch auf Volllast :freak:

The_Invisible
2023-07-02, 13:59:43
Wie viel säuft die 4090 eigentlich aktuell bei 175/144Hhz Mutli Displays Setups ?

Hier mit 4k/144hz/gsync + 1440p/60hz knapp 20w

GerryB
2023-07-02, 14:02:51
Diablo 4, 4K nativ, HDR, ~130 FPS, ~350W.
Egal was man macht, unter ~160W geht es nie.
Selbst 4K mit FSR Ultra Performance und Treiber 60FPS Limit ziehen weiterhin ~160W.

Macht es überhaupt Sinn so ne große Graka zu kaufen, wenn man Die eeh mit nur 150W betreiben will?
(FSR Ultraperf. ist vllt auch net passend, weil gerade net eff.1440p, ... müsste schon exakt 4k@FSR2-quality sein, um das Bsp. von CB zu matchen,
... weiss gar net ob Das mit ME EE war; ... kann auch sein, das <eff.1140p gar NIX mehr bringt, weil kaum noch W am Speicherkontroller gespart
werden kann, weil AMD derzeit dafür keine DPMI-States vorgesehen hat bzw. müsste man dann schon von 384bit auf 192bit runterschalten)

Um extrem UVen zu können und auch beim SOC+Vram runterzuregeln ist ne 6900 eigentlich ideal., ... man würde dann irgendwo zw. den 100-150Wtgp-Settings hantieren.(und kann dank MPT halt extrem eingreifen an einigen Stellschrauben)

Christopher_Blair
2023-07-02, 14:22:06
Macht es überhaupt Sinn so ne große Graka zu kaufen, wenn man Die eeh mit nur 150W betreiben will?
...

Lies nochmal meine Postings, ohne gleich in AMD Abwehrhaltung zu verfallen.

horn 12
2023-07-02, 14:56:31
Wo kann man bitte das Metrik Overlay erweitern
Mit diesem Treiber zeigt es Standardmässig nur 5 Werte na.


für @Dargo
https://abload.de/img/crutool-refreshratesc64cz5.jpg

aufkrawall
2023-07-02, 15:33:14
Liegt vielleicht an HDR, VRR oder 4K Auflösung
Ne, ist auch mit 1440p SDR so. Hatte ich ja schon eingangs geschrieben, dass RDNA3 dabei mies ist und ich ein Hardware-Limit nicht für implausibel halte.
Ist imho allerdings auch nicht eine riesige Tragödie, Ruckler durch Stromsparmodi wären schlimmer.

Mannyac
2023-07-02, 16:55:00
Das wäre doch interessant. Kann/Will das jemand testen?
Treiber installiert und ich kanns bestätigen.
Endlich wieder 144Hz+Freesync mit dem MG279Q (und 7900XTX).
Schön das AMD reagiert hat, auch wenns etwas gedauert hat.

dargo
2023-07-02, 17:12:51
Treiber installiert und ich kanns bestätigen.
Endlich wieder 144Hz+Freesync mit dem MG279Q (und 7900XTX).
Schön das AMD reagiert hat, auch wenns etwas gedauert hat.
Na endlich, danke für dein Feedback dazu!!!

Wiseman
2023-07-02, 17:21:39
Nö, Teilllast ist einfach eine Katastrophe in 4K, HDR, VRR mit 7900XTX.

Diablo 4, 4K nativ, HDR, ~130 FPS, ~350W.
Egal was man macht, unter ~160W geht es nie.
Selbst 4K mit FSR Ultra Performance und Treiber 60FPS Limit ziehen weiterhin ~160W.
Streetfighter 6, CoD, WoW etc. unter Teillast sind es immer deutlich über 100W.

Liegt vielleicht an HDR, VRR oder 4K Auflösung, ka, AMD sollte hier endlich mal abliefern.

Edit: Desktop ist ok, 4K, 120HZ ~20W.

Also ich habe mir eine Custom 7900XTX gekauft, weil ich meine Games, wenn möglich, in 6k spielen möchte. Ist dank FSR sehr oft möglich und in 6k bedeutet FSR Quality eine Display Resolution von 4k. Ich wusste, dass die 7900XTX mehr Strom verbraucht als mir lieb ist. Deshalb habe ich das Power Limit sofort auf -10% gestellt.

Diablo IV ist so ein Game, das ich dank FSR wunderbar in 6k + Ultra spielen kann. Da ich den Wattverbrauch per Power Limit - 10% limitiert habe, brauche ich in Diablo IV auch in 6k nie mehr als 312W. Meistens. Manchmal auch drunter (Siehe Guulrahn-Screenshot).

Ich betreibe normalerweise meinen 4k-Monitor mit 144Hz. Für dich habe ich heute meinen Monitor auf 60Hz und VSync On gestellt. Im Gegensatz zu dir komme ich mit FSR Ultra Performance in 4k + Ultra locker unter 160W, nämlich auf 110W. (Siehe Screenshot).

RoNsOn Xs
2023-07-03, 11:45:51
Zur Stromaufnahme kann ich persönlich nur berichten: so ca 130 Watt bei Rocket League, weniger ist kaum möglich. Dabei hab ich schon alles heruntergefahren, Takt auf unter 1000Mhz begrenzt, 0,7v bei ca. 130fps.

Achill
2023-07-03, 12:24:21
Treiber installiert und ich kanns bestätigen.
Endlich wieder 144Hz+Freesync mit dem MG279Q (und 7900XTX).
Schön das AMD reagiert hat, auch wenns etwas gedauert hat.

Thx!

Oberst
2023-07-03, 14:06:12
Es geht eher darum, dass der Idle-Verbrauch von 30 W auf 10 W runtergeht oder so. Bin aber gespannt wie sich der Treiber in Teillast verhält. Da sah RDNA3 bisher echt schlecht aus.

Edit: mit zwei Displays und bei 120 Hz ging das auf bis zu >100 W im Leerlauf hoch.
https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/Tests/Radeon-7900-XTX-7900-XT-Test-Benchmark-Review-1409055/5/
Naja, das kann NVidia aber auch gut:
https://www.igorslab.de/geforce-rtx-4060-8-gb-im-test-was-die-handverlesenen-youtuber-leider-verschwiegen-haben/8/
51W bei einer 4060 unter Win11 im Idle sind auch nicht besser als bei einer 7900XTX, eher schlechter (weil viel schwächere Karte).
Schon komisch, wieso man das als langjähriger Hersteller nicht hin bekommt. Erfinden die jede Gen alles neu und man muss wieder bei 0 anfangen?

Exxtreme
2023-07-03, 15:11:39
Naja, das kann NVidia aber auch gut:
https://www.igorslab.de/geforce-rtx-4060-8-gb-im-test-was-die-handverlesenen-youtuber-leider-verschwiegen-haben/8/
51W bei einer 4060 unter Win11 im Idle sind auch nicht besser als bei einer 7900XTX, eher schlechter (weil viel schwächere Karte).
Schon komisch, wieso man das als langjähriger Hersteller nicht hin bekommt. Erfinden die jede Gen alles neu und man muss wieder bei 0 anfangen?

Die Problematik liegt am Ändern der Taktfrequenz des Speichers. Hier kann es zu Blidflackern und kurzen Blackscreens kommen. Da beide Hersteller das nicht abschließend gefixt haben, kann es sein, dass es nicht so ohne Weiteres möglich ist. Beide versuchen das irgendwie zu kaschieren bzw. sie verschieben die Problematik immer und lösen sie peu à peu für bestimmte Konstellationen. AMD "löste" früher das Problem indem sie den RAM nicht heruntergetaktet hatten sobald mehr als ein Bildschirm angeschlossen war. Als die Grafikkarten nur 1 GB an RAM hatten, war das nicht so ein Problem. Jetzt aber ist der RAM einer der größten Energiefresser. Und jetzt wird rumgewurstelt.

Wiseman
2023-07-03, 16:31:59
Die Problematik liegt am Ändern der Taktfrequenz des Speichers. Hier kann es zu Blidflackern und kurzen Blackscreens kommen. Da beide Hersteller das nicht abschließend gefixt haben, kann es sein, dass es nicht so ohne Weiteres möglich ist. Beide versuchen das irgendwie zu kaschieren bzw. sie verschieben die Problematik immer und lösen sie peu à peu für bestimmte Konstellationen. AMD "löste" früher das Problem indem sie den RAM nicht heruntergetaktet hatten sobald mehr als ein Bildschirm angeschlossen war. Als die Grafikkarten nur 1 GB an RAM hatten, war das nicht so ein Problem. Jetzt aber ist der RAM einer der größten Energiefresser. Und jetzt wird rumgewurstelt.

Kann es, muss es aber nicht.

Ich habe mit meiner Custom 7900XTX weder Bildflackern noch Blackscreens.

Exxtreme
2023-07-03, 16:54:15
Kann es, muss es aber nicht.

Ich habe mit meiner Custom 7900XTX weder Bildflackern noch Blackscreens.

Ja, weil AMD das durch einige Tricks verhindert. Das ist ja der Witz dabei. ;D Die warten bis der Bildschirm das komplette Bild gezeichnet hat und wenn er das nächste Bild anfangen will dann wechseln sie die RAM-Frequenz. Denn in diesem Zeitfenster gibt es kein Flackern. Das funktioniert bei einem(!) Bildschirm sehr gut. Hat man aber mehrere Bildschirme, die eventuell auch noch mit unterschiedlichen Hz-Zahlen laufen wird das hart. Deshalb war früher die "Lösung" den RAM-Takt nicht zu ändern wenn es mehrere Bildschirme gibt.

aufkrawall
2023-07-03, 17:01:49
AMD hat die VRAM-Taktung mit RDNA3 sogar etwas verbessert, taktete bei mir mit 1440p 165Hz, anders als RDNA2, auch ohne VRR runter.

Btw: Der Shader-Compiler für den RDNA3 Vulkan-Treiber ist unter Windows schon die open-source Variante wie unter Linux mit amdvlk-open. Langsam konsolidiert sich ihre Langfrist-Strategie, dauert nur ewig. Angeblich soll ROCm für Windows ja auch noch kommen.

The_Lutzifer
2023-07-03, 17:51:53
Die Problematik liegt am Ändern der Taktfrequenz des Speichers. Hier kann es zu Blidflackern und kurzen Blackscreens kommen. Da beide Hersteller das nicht abschließend gefixt haben, kann es sein, dass es nicht so ohne Weiteres möglich ist. Beide versuchen das irgendwie zu kaschieren bzw. sie verschieben die Problematik immer und lösen sie peu à peu für bestimmte Konstellationen. AMD "löste" früher das Problem indem sie den RAM nicht heruntergetaktet hatten sobald mehr als ein Bildschirm angeschlossen war. Als die Grafikkarten nur 1 GB an RAM hatten, war das nicht so ein Problem. Jetzt aber ist der RAM einer der größten Energiefresser. Und jetzt wird rumgewurstelt.

Ich lese seit einer Ewigkeit alle möglichen Forenbeiträge zu diesem Thema, aber so deutlich und nachvollziehbar war bisher keine Erklärung. Danke sehr für die Zusammenfassung! Endlich verstehe ich, warum das Problem des hohen Vram-Takts besonders bei mehreren Bildschirmen besteht und nicht so einfach zu lösen ist.

aufkrawall
2023-07-03, 18:02:32
Die Erklärung lässt allerdings den wesentlichen Punkt aus, dass die VRAM-Taktänderung nur in einem bestimmten Zeitrahmen zwischen Monitor-Refreshes erfolgen kann, soll es nicht flackern (war bei HBM offenbar anders?). Deshalb hilft VRR, weil man dann den Zeitpunkt für den Monitor-Refresh aktiv steuern kann, anstatt sich komplett nach ihm richten zu müssen.
Mehrere Monitore erhöhen entsprechend die Schwierigkeit, den VRAM-Takt zum richtigen Zeitpunkt für alle Geräte ändern zu können. Und auch hier sollte VRR wieder extrem helfen können (ggf. mit gleicher, hoher Refreshrate für alle Geräte).

Christopher_Blair
2023-07-03, 20:10:43
Also ich habe mir eine Custom 7900XTX gekauft, weil ich meine Games, wenn möglich, in 6k spielen möchte. Ist dank FSR sehr oft möglich und in 6k bedeutet FSR Quality eine Display Resolution von 4k. Ich wusste, dass die 7900XTX mehr Strom verbraucht als mir lieb ist. Deshalb habe ich das Power Limit sofort auf -10% gestellt.

Diablo IV ist so ein Game, das ich dank FSR wunderbar in 6k + Ultra spielen kann. Da ich den Wattverbrauch per Power Limit - 10% limitiert habe, brauche ich in Diablo IV auch in 6k nie mehr als 312W. Meistens. Manchmal auch drunter (Siehe Guulrahn-Screenshot).

Ich betreibe normalerweise meinen 4k-Monitor mit 144Hz. Für dich habe ich heute meinen Monitor auf 60Hz und VSync On gestellt. Im Gegensatz zu dir komme ich mit FSR Ultra Performance in 4k + Ultra locker unter 160W, nämlich auf 110W. (Siehe Screenshot).

Muss ich am Wochenende am PC nochmal ausführlich Testen, den Monitor auf 60hz zu stellen hatte ich noch nicht ausprobiert (und VRR Testweise mal aus). Scheint von vielen Faktoren abhängig zu sein :freak:

Oberst
2023-07-03, 20:46:39
Die Problematik liegt am Ändern der Taktfrequenz des Speichers.
Meinst du wirklich, 51W kommen bei der 4060 in erster Linie vom Ram? Da muss doch auch in der GPU was schief laufen (kommt nicht auf die niedrigsten Taktraten herunter).
Bei der 7900XTX würde ich das noch verstehen, die hat ein 384Bit SI mit 12 Speicher-Chips, welches versorgt werden will. Aber die 4060 mit 128Bit SI und 4 Speicherchips, da muss schon mehr im Argen liegen als nur der Speichertakt, damit die bei 51W im Idle liegt. Sonst wären ja bei Gaming Last 40% vom Power Budget nur für den Speicher weg. Das wäre ein deutliches Alarmzeichen, dass man eine andere Speicher-Technologie bräuchte.

Exxtreme
2023-07-03, 22:05:15
Meinst du wirklich, 51W kommen bei der 4060 in erster Linie vom Ram?

Hier vermute ich einen Treiberbug.

Wiseman
2023-07-04, 17:13:39
Zur Stromaufnahme kann ich persönlich nur berichten: so ca 130 Watt bei Rocket League, weniger ist kaum möglich. Dabei hab ich schon alles heruntergefahren, Takt auf unter 1000Mhz begrenzt, 0,7v bei ca. 130fps.

Also den Takt verändere ich nie bei meiner Custom 7900XTX. Ich lasse den Takt immer bei 2900Mhz stehen.

Heute habe ich weitere Check-ups zwecks Idle-Verbrauch und Teillastverbrauch bei 60Hz-Verwendung meines 4k-Monitors gemacht. Normalerweise betreibe ich meinen 4k-Monitor mit 144Hz.

In Idle zeigt meine TBP 5W an. Schwankt zwischen 5W und 9W. Siehe Screenshot.

Für den Teillastverbrauch verwendete ich erneut Diablo IV. 4k, Ultra, FSR2 UP, 4k-Monitor mit 60Hz, VSync On: ca. 110W. Siehe Screenshot.

Oberst
2023-07-05, 22:18:11
Hier vermute ich einen Treiberbug.
Davon gehe ich auch aus. Aber ich verstehe nicht, wie das passieren kann. Für so was gibt's doch Testfälle, das darf eigentlich nicht passieren. Ich komme selbst aus der SW Entwicklung, wenn wir unseren Kunden so was abliefern würden, die würden uns den A... aufreißen.
Genau das ist halt mein Problem: Solche Szenarien sind bekannt, es gab da immer wieder Probleme. Also muss ich solche Fälle doch mit einem Test abfangen. Und wenn der mir zurück liefert, dass es einen Bug im Treiber gibt, dann fixe ich den halt schnell. Wenn das Zeitlich nicht mehr klappt (weil genügend andere Baustellen mit höherer Prio), dann kommuniziere ich das direkt in den Release Notes der Treiber. So ist klar: Es gibt wieder mal ein Problem, man ist schon dran, keine Panik. Hat man aber nicht gemacht (weder AMD noch NVidia; beide Testen das scheinbar nicht ab, haben offensichtlich nichts aus der Vergangenheit gelernt).
Wenn das aber nicht passiert und dann eine Woche lang nicht auf Nachfragen der Presse reagiert wird, weil offensichtlich das Marketing keine Ahnung hat, dass da ein Bug vorliegt, dann ist das einfach nur peinlich.
Und ich frage mich dann auch gleich: Wieso klappt es bei der 4060 nicht? Was macht die anders als alle anderen ADA Karten? Ich hätte erwartet, dass so Features wie Taktanpassung und Voltage-curve über alle Ada relativ gleich sind. Natürlich auf die Chips angepasst/konfiguriert (ein AD102 hat sicher eine andere Voltage-curve als ein AD103 oder AD106), aber von den Methoden her gleich, nur eben mit anderen Parametern. Und wenn in den Parametern ein Fehler drin ist, lässt sich das ja in wenigen Minuten korrigieren.

horn 12
2023-07-05, 22:32:32
https://drive.google.com/uc?id=1i-TuhMxr0iLQJXlZ8095dXi7C18yJ2Zh&export=download

Wieder NEUER Treiber
Oder Murks ?

Exxtreme
2023-07-05, 22:42:48
https://drive.google.com/uc?id=1i-TuhMxr0iLQJXlZ8095dXi7C18yJ2Zh&export=download

Wieder NEUER Treiber
Oder Murks ?

Ich würde keine Treiber aus irgendwelchen Google Drive-Downloads installieren. :)

aufkrawall
2023-07-06, 00:29:47
Das sind nur die Radeon Settings für die UWP Preview-Treiber...

Fetza
2023-07-07, 16:56:42
Kann jemand schon einschätzen, wie es jetzt eigentlich so mit dem VR-Support aussieht bei AMD? Angeblich sollten die 7xxx Generation ja Probleme mit VR haben. Hat sich das mittlerweile verbessert? Oder sollte man für VR doch lieber noch zu Nvidia greifen?
Die 7900XTX reizt micht mittlerweile doch sehr wegens des Preises, aber guter VR-Support wäre mir wichtig.

Gast_samm
2023-07-15, 12:19:19
Kann jemand schon einschätzen, wie es jetzt eigentlich so mit dem VR-Support aussieht bei AMD? Angeblich sollten die 7xxx Generation ja Probleme mit VR haben. Hat sich das mittlerweile verbessert? Oder sollte man für VR doch lieber noch zu Nvidia greifen?
Die 7900XTX reizt micht mittlerweile doch sehr wegens des Preises, aber guter VR-Support wäre mir wichtig.Ja, die Leistung ist mit dem aktuellsten Treiber da, wo sie in der Pfannkuchenwelt auch ist :)