Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 9070 & 9070 XT Review-Thread
Seiten :
1
2
3
4
5
6
7
8
[
9]
10
RoughNeck
2025-08-16, 12:23:27
Das war eine Woche voller Ereignisse aber jetzt ist der Besitzer happy.
Montag kam die 9070 XT Mercury in weiß, also Rechner komplett, Win 11 installiert und zack, nach der Treiber Installation 25.8.1 oder auch ältere kein Bild. Alle Ports durchprobiert, anderes Kabel und anderer Monitor, nichts half. Ohne Treiber Bild, mit Treiber kein Bild mehr.
Also Karte retourniert, mit dem Besitzer Rücksprache gehalten und eine Hellhound Spectral White geordert und siehe da, läuft alles wie es soll. Also Rechner auf Stabilität getestet, CPU undervoltet, GPU ebenfalls und heute nahm der glückliche Besitzer seinen Rechner mit.
Kann leider nichts zur XFX Karte beitragen, die Hellhound ist allerdings gut, Lüfter sind laufruhig (außer zwischen 1180 - 1230, da hat der mittlere Lüfter eine schleifen) und das Spulenfiepen ist eher so ein rasseln was unter 150 FPS kaum wahrnehmbar ist.
Karte ist allerdings nicht durch optimiert, hab -30mv und 80% PT eingestellt, läuft perfekt und für weiteres optimieren hatte ich zu wenig Zeit da Arbeit und Familie es aktuell nicht zulassen.
Die Battlefield 6 Beta lief mit den Einstellungen ohne Probleme, auch die ganzen 3D Marks liefen im Loop durch.
GPU hatte 62°, HotSpot lag bei 76 - 79° und der VRAM lag bei 79° (Samsung Chips) bei 1100 - 1150 RPM, Raumtemperatur lag dabei zwischen 25 - 27°, beim Besitzer ist das System sicher kühler da er eine Klima hat.
Würde ich auch gern, allerdings wird meine Frau sehr schnell krank von den Klima Anlagen, daher schwitze ich halt, während meine Frau in der Nacht mit Decke schläft da ihr kalt ist (Frauen halt) :biggrin:
dargo
2025-08-16, 12:29:45
Mit der Hellhound XT hast du die richtige Wahl für den Kollegen getroffen. :wink:
GPU hatte 62°, HotSpot lag bei 76 - 79° und der VRAM lag bei 79° (Samsung Chips) bei 1100 - 1150 RPM, Raumtemperatur lag dabei zwischen 25 - 27°, beim Besitzer ist das System sicher kühler da er eine Klima hat.
Würde ich auch gern, allerdings wird meine Frau sehr schnell krank von den Klima Anlagen, daher schwitze ich halt, während meine Frau in der Nacht mit Decke schläft da ihr kalt ist (Frauen halt) :biggrin:
Was tut man nicht alles für die Frauen. :biggrin:
RoughNeck
2025-08-16, 13:06:04
Er ist happy, das ist das was zählt.
Hat 1 Stunde bei mir die BF6 Beta gezockt, hat extrem gestaunt wegen der Grafik und wie leise der Rechner ist im Vergleich zu seinen alten und darauf kommt es an. Der Mercury war natürlich ärgerlich da DoA aber passiert halt. Ist Massenproduktion und da fällt ein kleiner Teil durchs Raster.
Ja, meistens tun wir zu wenig für die Frauen (kommt natürlich von den Frauen) wobei ich da die Ausnahme von der Regel erwischt habe.
Hakim
2025-08-16, 13:12:36
War das eine neue oder gebrauchte Mercury?
RoughNeck
2025-08-16, 13:23:37
War neu, zumindest hätte ich keine Gebrauchsspuren gesehen.
War halt einfach Pech, der Händler hatte nur leider keine mehr in weiß, also wurde es die Hellhound in weiß.
Hakim
2025-08-16, 13:25:09
Ok ja kann vorkommen und sehr ärgerlich. Ist halt die Frage ob er es dann als refurbished wieder verkauft :)
dargo
2025-08-16, 13:39:32
Er ist happy, das ist das was zählt.
Jau.. hast du eigentlich die 80% PT beim ersten oder zweiten (Silent) Bios genommen? Beim Silent Bios wären es nämlich max. 243W anstatt 254W.
nairune
2025-08-16, 14:47:07
Sei dir nur bewusst, dass deine Einstellungen für PT und UV weg sind, sobald er ein Treiberupdate installiert.
Also wenn er selber das nie gesehen hat / weiß, wie man das macht, wird das nicht lang halten.
Hakim
2025-08-16, 15:15:00
Gibt es einen Weg das es iwie behalten wird? Also wenn es bei einem Drittanbieter wie afterburner geht, schon seltsam
dargo
2025-08-16, 15:51:10
Sei dir nur bewusst, dass deine Einstellungen für PT und UV weg sind, sobald er ein Treiberupdate installiert.
Also wenn er selber das nie gesehen hat / weiß, wie man das macht, wird das nicht lang halten.
Wo ist das Problem? Ich gehe jetzt mal davon aus RoughNeck hat ein entsprechendes Profil abgespeichert welches der Kollege beim neuen Treiber nur laden muss.
Hacki_P3D
2025-08-16, 15:51:17
@Hakim
Klar, Du kannst es direkt in der Einstellungsmaske sichern/exportieren und auch laden/importieren.
Hakim
2025-08-16, 15:52:38
ja gut dann ist es ja kein wirkliches Problem, sollte man halt nicht vergessen beim Updaten.
RoughNeck
2025-08-16, 18:06:56
Jau.. hast du eigentlich die 80% PT beim ersten oder zweiten (Silent) Bios genommen? Beim Silent Bios wären es nämlich max. 243W anstatt 254W.
Silent BIOS, hab da ehrlich nicht drüber nachgedacht dass das Silent BIOS etwas weniger anlegt.
Und ja, das Profil ist am Desktop abgespeichert falls es durch ein Treiberupdate weg sein sollte.
dargo
2025-08-17, 09:53:36
Sagt mal... welchen Lack haben die Entscheidungsträger bei AMD eigentlich gesoffen als sie den Betriebspunkt der RX 9070XT final bestimmt haben? Mir wird das hier erst so richtig klar. :freak:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13798838&postcount=567
Ich meine AMD müsste jetzt natürlich nicht die XT bei max. 213W laufen lassen. Aber ganz ehrlich... die hätten die RX 9070XT locker mit den ursprünglich spekulierten 265W releasen sollen bei ca. max. 2,8Ghz Boost und nicht 3,45Ghz. Dieses auf Teufel komm raus maximale Boosten lassen weil der Chip bis zu 3.450Mhz verträgt ist sowas von bescheuert auf Kosten der Perf/W, dass es nicht mehr feierlich ist. Hatte AMD echt Angst, dass eine RX 9070XT dann vs. RTX 5070TI im Schnitt der getesteten Spiele um 4% langsamer wäre als um 2%? Ich verstehe diese Entscheidungsträger einfach nicht.
dildo4u
2025-08-17, 09:58:28
Naja das macht schon Sinn das man zumindest vergleichbare Raster Performance hat alles andere ist schlechter.
Mit der 5070 TI hast du DLSS4 in Tonnen mher Games vs FSR4,besseres RT und weniger Verbrauch.
dargo
2025-08-17, 10:01:13
Hä? Was möchtest du mir damit sagen, ich verstehe nicht worauf du hinaus willst. Oder meinst du ernsthaft mit 96% 5070TI Peformance ist plötzlich nichts mehr gut spielbar während 98% 5070TI Performance alles wunderbar spielbar ist? :uconf3:
Mit der 5070 TI hast du DLSS4 in Tonnen mher Games vs FSR4...
Das kannst du vielleicht dem 08/15 Hans so verkaufen der sowieso nicht weiß was Upscaling ist. Aber nicht jemandem der den Optiscaler verwendet. Jedes Game welches DLSS verwendet kann auch FSR4 verwenden.
Edit:
Bezüglich Verbrauch kann ich das auch nicht so stehen lassen. Eine 5070TI verbraucht minimal mehr als eine 9070XT. Man muss sie nur halt mit entsprechenden Gaminglast fordern. Bei dem Design von Blackwell ist schon eine gewisse RT-Last dafür notwendig damit die Dinger nicht im Taktlimit landen.
https://www.computerbase.de/artikel/grafikkarten/amd-radeon-rx-9070-xt-rx-9070-test.91578/seite-9#abschnitt_leistungsaufnahme_gemessen_spiele_youtube_desktop
Bei der RX 9070XT kritisiere ich hauptsächlich den max. Boost von 3.450Mhz den AMD da gefällt hat. Damit verschwendet AMD unheimlich viel Energie bei Teillast bzw. Gaminglast die weniger heizt. Ca. 2,8Ghz max. Boost würden die Karte massiv effizienter bei Teillast machen.
OCmylife
2025-08-17, 10:28:31
Sagt mal... welchen Lack haben die Entscheidungsträger bei AMD eigentlich gesoffen als sie den Betriebspunkt der RX 9070XT final bestimmt haben? Mir wird das hier erst so richtig klar. :freak:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13798838&postcount=567
Ich meine AMD müsste jetzt natürlich nicht die XT bei max. 213W laufen lassen. Aber ganz ehrlich... die hätten die RX 9070XT locker mit den ursprünglich spekulierten 265W releasen sollen bei ca. max. 2,8Ghz Boost und nicht 3,45Ghz. Dieses auf Teufel komm raus maximale Boosten lassen weil der Chip bis zu 3.450Mhz verträgt ist sowas von bescheuert auf Kosten der Perf/W, dass es nicht mehr feierlich ist. Hatte AMD echt Angst, dass eine RX 9070XT dann vs. RTX 5070TI im Schnitt der getesteten Spiele um 4% langsamer wäre als um 2%? Ich verstehe diese Entscheidungsträger einfach nicht.
Nur zu meinem Verständnis:
Du hast dort aber lediglich das Powertarget reduziert und nichts an der Spannung verändert? Andernfalls wäre mir die Entscheidung bezüglich des Betriebspunkts ziemlich klar. Du hast aufgrund der unterschiedlichen Siliziumgüte ja immer eine gewisse Streuung und auch wenn dein Chip den Takt bei einer gewissen Spannung stabil in absolut jedem Spiel schafft (was Du sicherlich auch noch nicht testen konntest), heißt das noch lange nicht, dass auch die anderen 99% der Chips den Takt mit der niedrigen Spannung erreichen. Und dann sind es nicht nur 2-4%, sondern sicherlich auch mehr und man fällt bei den fps weiter zurück, als Du es gerade versuchst abzubilden.
Falls Du die Spannung nicht angefasst hast, sondern lediglich das PT reduziert hast, habe ich nichts gesagt. :biggrin:
dargo
2025-08-17, 10:37:32
@OCmylife
Ich musste in dem Beispiel ein Voltageoffset anlegen damit ich fast an die 3,15Ghz rankomme weil mich EA in die BF6 Beta nicht reinlässt, hatte mich darüber im BF6 Thread schon genug dazu ausgekotzt. Sprich... ich hatte zwar eine veränderte V/F-Kurve, aber das Voltageoffset galt sowohl für die 317W als auch für die 213W. Ich kann das gleich aber auch gerne ohne Voltageoffset abbilden ob sich da deutlich mehr in den fps tut.
robbitop
2025-08-17, 10:43:07
Oder man könnte eine separate low Power SKU machen. So wie die Nano damals (oder bei Nvidia im Laptop „maxq“). Ich vermute aber, dass das bei GPUs nicht sonderlich nachgefragt wird.
dargo
2025-08-17, 10:49:26
Kannst vergessen... wie du schon richtig sagst kaum jemand ist bereit den gleichen Preis zu zahlen wenn die Grafikkarte deutlich sparsamer ist, dafür aber minimal langsamer. Die Masse kriegt nur einen steifen wenn die fps Balken maximal lang sind, koste es was es wolle.
OCmylife
2025-08-17, 10:54:41
@OCmylife
Ich musste in dem Beispiel ein Voltageoffset anlegen damit ich fast an die 3,15Ghz rankomme weil mich EA in die BF6 Beta nicht reinlässt, hatte mich darüber im BF6 Thread schon genug dazu ausgekotzt. Sprich... ich hatte zwar eine veränderte V/F-Kurve, aber das Voltageoffset galt sowohl für die 317W als auch für die 213W. Ich kann das gleich aber auch gerne ohne Voltageoffset abbilden ob sich da deutlich mehr in den fps tut.
Das wäre interessant. Vielen Dank!
Es ist dann immer noch schwierig über alle GPUs herzuziehen, aber es gibt zumindest ein deutlich klareres Bild, als wenn man eine manuell angepasste Karte mit allen anderen XTs vergleicht.
Dass häufig die Brechstange ausgepackt wird, nur um die Performance der Konkurrenz zu erreichen, da bin ich ganz bei Dir.
dargo
2025-08-17, 11:15:11
Ich habe mich jetzt auf ein 304W PT beschränkt da das die Referenzvorgabe von AMD ist, Stock Spannungskurve diesmal also.
Stock 304W
https://i.postimg.cc/xk9573XV/tlou-ii-2025-08-17-11-00-03-562.jpg (https://postimg.cc/xk9573XV)
PT max. 264W (Mein Favorit als Powerlimit für N48 XT Referenz)
https://i.postimg.cc/7fVf91r2/tlou-ii-2025-08-17-11-00-59-554.jpg (https://postimg.cc/7fVf91r2)
PT max. 213W
https://i.postimg.cc/KkPZzFZM/tlou-ii-2025-08-17-11-01-36-522.jpg (https://postimg.cc/KkPZzFZM)
PT max. 304W, Taktoffset -500Mz, ergo max. Boost 2950Mhz
https://i.postimg.cc/3ygNczkn/tlou-ii-2025-08-17-11-02-56-152.jpg (https://postimg.cc/3ygNczkn)
Ich hätte dem Chip einen max. Boost von 2,8Ghz verpasst, damit würde der hier ohne Taktoffset bei ca. 2720Mhz liegen. Leider habe ich es vergessen diesen Takt mit noch weniger Powerlimit als 264W abzubilden. Ich schätze grob die Karte würde hier bei 230-240W liegen.
Stock ist hier also 2% schneller als max. Boost von 2950Mhz bei 16,5% mehr Verbrauch. Die max. 2950Mhz Boost sind halt immer noch zu hoch. Vergleich zu den max. 213W ergibt 6,6% mehr Performance bei 42,7% mehr Verbrauch. Letzteres ist richtig verrückt dann, die oberen Boosttaktraten mit den dann entsprechend höheren Spannungen saufen einfach extrem im Verhältnis. Ich hätte bei dem Vergleich die Spannungen abbilden sollen. Verdammt... auch vergessen. :usad:
OCmylife
2025-08-17, 11:32:48
Danke Dargo, das ist echt verrückt. Meine 4080 Super ist ja auch ziemlich effizient und es gibt durchaus auch mal den Usecase, wo ich mit 150Mhz(2670 auf 2820) mehr von 58 auf 60 fps springe und dadurch etwas Effizienz für ein ruhigeres Bild aufgebe, aber niemand wird es merken, ob da jetzt 96,8 oder 99 fps laufen.
dargo
2025-08-17, 11:44:35
Ich werde später noch ein anderes Spiel abbilden um zu sehen ob bei einer höheren Heizlast der Performanceverlust vs. Stock sich deutlich stärker bemerkbar macht als hier. TLOU 2 hat eine relativ niedrige Heizlast.
Edit:
Habe jetzt mal GoW: R dafür genommen. Das heizt schon ganz gut für Raster, erreiche hier bei 304W und 4k + FSR 4 Quality 2,8xGhz. Diesmal auch richtig mit Spannungen. Die fps schwanken in der Szene etwas im Bereich von ~2fps, ich habe versucht immer möglichst den höchsten Wert zu erwischen.
Stock 304W
https://i.postimg.cc/MXThGVzY/Go-WR-2025-08-17-11-56-50-645.jpg (https://postimg.cc/MXThGVzY)
PT max. 264W
https://i.postimg.cc/bZXML5k6/Go-WR-2025-08-17-11-57-38-610.jpg (https://postimg.cc/bZXML5k6)
PT max. 213W
https://i.postimg.cc/BPLYB569/Go-WR-2025-08-17-11-58-27-249.jpg (https://postimg.cc/BPLYB569)
PT max. 304W, Taktoffset -500Mz, ergo max. Boost 2950Mhz
https://i.postimg.cc/2qk0KN6x/Go-WR-2025-08-17-11-59-24-736.jpg (https://postimg.cc/2qk0KN6x)
304W vs. 264W bedeuten hier ebenfalls +2% Performance bei 16,5% mehr Verbrauch. 304W vs. 213W bedeuten hier +8,25% Performance bei 42,7% mehr Verbrauch. Also massive Abweichung bei einer höheren Heizlast sehe ich jetzt hier nicht unbedingt. Zumal die Games auch etwas unterschiedlich auf die Bandbreite reagieren könnten. Zumindest bis 264W ist alles identisch. Hier sieht man auch sehr schön, dass bei einer höheren Gaming-/ bzw. Heizlast der max. Taktoffset von -500Mhz keine Auswirkung mehr zeigen kann sofern das Powerlimit von 304W nicht erhöht wird.
OCmylife
2025-08-17, 14:04:44
Mir persönlich gefällt hier die Performance/Leistungsaufnahme von dem 264 Watt Setting ebenfalls am Besten.
Ragnarok muss ich mir in naher Zukunft auch mal vornehmen. Den direkten Vorgänger fand ich spitze! :)
dargo
2025-08-17, 19:15:54
Habe mal den alten Schinken Death Stranding angeschmissen. Der Verbrauch in den Cutszenen dank 60fps Limit in diesen ist zu köstlich. X-D
4k + FSR 4 Quality (HDR)
https://i.postimg.cc/wRxFZsVz/DEATH-STRANDING-2025-08-17-19-12.jpg (https://postimg.cc/wRxFZsVz) https://i.postimg.cc/XZVR4Xx2/DEATH-STRANDING-2025-08-17-19-32.jpg (https://postimg.cc/XZVR4Xx2) https://i.postimg.cc/878FKgwk/DEATH-STRANDING-2025-08-17-19-42.jpg (https://postimg.cc/878FKgwk)
In Farbe für alle aus der Basis. ;)
https://i.postimg.cc/HrG3Cxdf/DEATH-STRANDING-2025-08-17-21-02.jpg (https://postimg.cc/HrG3Cxdf)
Freestaler
2025-08-17, 22:58:00
Wie seht ihr das, 9070xt Asrock Taichi OC oder Powercolor Red Devil? Oder gibts noch bessere? mainfokus xt möglichst leise ab Werk.
Hakim
2025-08-17, 23:47:48
Beides vermutlich sehr nahe beieinander und sehr gut, mach das eher am Preis oder optisch aus was dir eher zusagt. Ich persönlich würde vermutlich die Red Devil nehmen
Die Nitro+ könnte dir auch gefallen
dargo
2025-08-18, 07:28:03
Wie seht ihr das, 9070xt Asrock Taichi OC oder Powercolor Red Devil? Oder gibts noch bessere? mainfokus xt möglichst leise ab Werk.
Beides zu teuer und lohnt imo nicht. Bei welcher Power ist eigendlich die wichtigste Frage erstmal? Weil Power bestimmt zum wesentlichen Teil die Lautstärke. Soll heißen reichen dir als Beispiel max. 264W ist die Auswahl größer und es wird wesentlich günstiger.
btw.
Wenn du bereit bist die Power (ist nur ein Klick im Treiber) auf 250-264W zu reduzieren würde ich dir sogar die XFX Swift XT aktuell empfehlen weil der Preis unschlagbar ist, 597,65€ mit Shoop.
https://www.galaxus.de/de/s1/product/xfx-swift-radeon-rx-9070-xt-triple-fan-gaming-edition-16-gb-grafikkarte-55651815?utm_campaign=preisvergleich&utm_source=geizhals&utm_medium=cpc&utm_content=2705624&supplier=2705624
Bedenke aber bitte, dass die Karte schon recht dick ist. Und hier bitte auch eine custom Lüftersteuerung mit max. 1070RPM verwenden. Ist auch ein Kinderspiel das im Treiber einzustellen und sich abzuspeichern für die zukünftigen Treiber.
PS: bei der Karte hast du auch gute Chance Samsung GDDR6 zu bekommen. Ich finde den heißen Hynix schwierig wenn der thermisch zuerst limitiert. Das gibt weniger Spielraum bei den Lüfterdrehzahlen nach unten.
Edit:
Nur mal so ein Gedankenanstoß... wenn du die Power bei einer XT auf 264W reduzierst verlierst du nur lächerliche 2% Leistung vs. 304W, bei 250W gehe ich nicht von mehr als 2,5% aus. Und das hat nichts mit Undervolting zu tun. Du bewegst dich mit dem anderen Powerlimit innerhalb der Stock V/F-Kurve. Ist einfach nur ein effizienterer Betriebspunkt. Sehr vergleichbar mit dem Ecomodus bei einer Ryzen-CPU. Wegen 2% Leistung also weit über 100€ mehr ausgeben? Vergleiche hier den regulären Preis ohne Cashback. Diese Entscheidung überlasse ich jedem selbst. ;)
Lurtz
2025-08-18, 08:48:23
Nur mal so ein Gedankenanstoß... wenn du die Power bei einer XT auf 264W reduzierst verlierst du nur lächerliche 2% Leistung vs. 304W, bei 250W gehe ich nicht von mehr als 2,5% aus. Und das hat nichts mit Undervolting zu tun. Du bewegst dich mit dem anderen Powerlimit innerhalb der Stock V/F-Kurve. Ist einfach nur ein effizienterer Betriebspunkt. Sehr vergleichbar mit dem Ecomodus bei einer Ryzen-CPU. Wegen 2% Leistung also weit über 100€ mehr ausgeben? Vergleiche hier den regulären Preis ohne Cashback. Diese Entscheidung überlasse ich jedem selbst. ;)
Wie wäre die Performance der 9070 im Vergleich? Vermutlich ist die XT dann immer noch minimal schneller und die 9070 primär N48 mit effizienterem Betriebspunkt?
Ist dir jetzt egal weil du die XT so günstig bekommen hast?
Aber ja, dass die XT ab etwa 250 Watt langsam völlig ineffizient ist, das bekommt man eigentlich sehr schnell raus wenn man mal die Regler bedient...
dargo
2025-08-18, 08:53:17
Wie wäre die Performance der 9070 im Vergleich? Vermutlich ist die XT dann immer noch minimal schneller und die 9070 primär N48 mit effizienterem Betriebspunkt?
Beide @250W trennen rund 4% wenn ich das noch richtig im Kopf habe. Lass es im worst case 5% sein.
Ist dir jetzt egal weil du die XT so günstig bekommen hast?
Ich habe die Hellhound XT für 583,xx€ bekommen, von daher wäre es Quatsch ne non XT zu nehmen. Zumal mir ein sehr guter Kühler wichtig ist, die non XTs sind beim Kühler wieder etwas schwächer dimensioniert. Bei der non XT nehme ich natürlich die 250W (also OC @Wattage) als Referenzpunkt für die Kühlung.
btw.
Meine XT habe ich mittlerweile so konfiguriert, dass ich max. 261W zulasse und mit -500Mhz oben den extrem hohen, völlig ineffizienten Boost mit max. 2950Mhz limitiere. So läuft die Karte bei hohen Heizlast mit max. 261W und bei geringeren bis mittleren Heizlast oft auch mit weniger Wattage dank Taktdeckel bei max. ca. 2,88Ghz in Games. Zum Bleistift sowas hier.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13799146&postcount=119
Dank -50mV + Fast Timings ist die Karte so auch exakt gleich schnell wie Stock @304W.
Die Top Modelle lohnen sich meiner Meinung nach nur wenn man vorhast ans Limit zu gehen und du einen Wasserblock benutzt.
ich hatte die Red Devil 4 Wochen mit dem Luftkühler im Betrieb, der Luftkühler war absolut am Limit mit dem Standard OC Bios bei 330W.
Ich würde da eher die Hellhound empfehlen.
Unter Wasser allerdings schlägt sie sich sehr gut, bei mir mit 10% Powerlimit+ also 365W und -70 mV bei stabilen 3,3 GHZ.
dargo
2025-08-18, 09:46:31
Die Top Modelle lohnen sich meiner Meinung nach nur wenn man vorhat ans Limit zu gehen und du einen Wasserblock benutzt.
Genau... so würde ich das auch sehen. Wer auf hohe Effizienz scheißt und zusätzlich Wakü hat für den könnten diese teureren OC-Modelle interessant sein. :)
Freestaler
2025-08-18, 17:08:50
Ich scheiss auf 100€ aber nicht auf die lautstärke. Und nach Jahren mit ner msi 580 die ich nach jedem Treiberupdate wieder leise Stellen musste, mach ich mir leben einfach. Vielleicht läuft sie primär mit 260w target, vielleicht aber auch voll gas. In dem Kontext ist mir 100er Wert. Feedback von skar zur Devil enttäuscht mich. Wird dann wohl die asrock oc.
dargo
2025-08-18, 17:13:17
Und wie kommst du jetzt auf die Idee die Asrock würde deutlich besser bei hohen 330W oder gar den von skar genannten 365W (mit 110% PT wahrscheinlich) abschneiden? Dein Vergleich zur einer RX580 ist auch putzig. Konntest du nicht noch ein paar weitere Jahre in die Geschichte gehen? :tongue: Wenn mich nicht alles täuscht konnte man bei Polaris keine Profile wie heute ablegen. Oder täusche ich mich gerade in diesem Punkt? Ist schon zu lange her. In 8 Jahren ist jedenfalls eine Menge passiert bei den Treibern im Bereich Optionsvielfalt.
Edit:
Wobei... wenn ich das hier so sehe scheint der Kühler ganz gut zu performen.
https://www.techpowerup.com/review/asrock-radeon-rx-9070-xt-taichi-oc/39.html
Bis auf den Hynix natürlich der wieder ziemlich heiß wird. Vielleicht hast du Glück und erwischst eine Taichi mit Samsung. Versuche dein Glück dann mit der Taichi wenn dich der Aufpreis nicht stört. :)
PS: bin mir aber nicht sicher ob Techpowerup im offenen Aufbau oder Gehäuse testet.
Freestaler
2025-08-18, 19:49:28
Seit der 580 hab ich nur noch outofthebox leise Karten ;-). Aber genug reset mit vega und 6900. Will da wirklich einfach primäre quietbios und ruhe. Ich schau nun noch ob neues Motorrad oder Graka. Beides macht zeitgleich kein sinn. Wird ja nur günstiger ;-)
Asrock Taichi OS schneidet auch sonst leise ab. Trotzdem wegen skar reddevil noch bissel neben dem Platz. Die gilt doch auch in den Tests als leise.
dargo
2025-08-18, 19:50:48
Ja was denn nun? Ich dachte der Preis spielt keine Rolle. ;) Bezüglich leise Karten... haha. Was ich schon alles von Menschen als leise bezeichnet gesehen habe da kann ich teilweise nur mit dem Kopf schütteln.
Freestaler
2025-08-18, 19:53:11
Jein, aber meine allerbeste Frau. Nur etwas pro Monat. ;-)
Scherz, der ist das egal solange ich "auch" Zeit für sie und die Kidz habe.
dargo
2025-08-18, 19:55:03
Uff... Motorrad und PC mit neuer Graka? Das wird schwer mit Zeit für Frau und Kinder. :D
@OCmylife
Ich musste in dem Beispiel ein Voltageoffset anlegen damit ich fast an die 3,15Ghz rankomme weil mich EA in die BF6 Beta nicht reinlässt, hatte mich darüber im BF6 Thread schon genug dazu ausgekotzt. Sprich... ich hatte zwar eine veränderte V/F-Kurve, aber das Voltageoffset galt sowohl für die 317W als auch für die 213W. Ich kann das gleich aber auch gerne ohne Voltageoffset abbilden ob sich da deutlich mehr in den fps tut.
Dein Offset funktioniert sowohl als auch? Was hast du gegeben - -0.06v?
-0.15v geht hier immer (!) bei 374w, bei 238w ist dann allerdings an Stabilität nicht zu denken. BTW. macht meine bei ~3.6g die Schere. Getestet in HL2 ...
RoughNeck
2025-08-18, 20:20:55
So ist es halt wenn man Beruf, Familie und eigene Interessen / Hobbys unter einen Hut bringen will / muss.
Solange man einen Partner hat der Verständnis hat geht es, meine Frau & Ich geben uns regelmäßig Zeit für uns selbst, um abschalten zu können
Der_Korken
2025-08-18, 21:03:08
-0.15v geht hier immer (!) bei 374w, bei 238w ist dann allerdings an Stabilität nicht zu denken. BTW. macht meine bei ~3.6g die Schere. Getestet in HL2 ...
Das klingt wie das Phänomen, das dargo bei der Swift hatte. Sobald der Verbrauch über 300W geht, wird massiv mehr Spannung auf den gleichen Takt geballert und die Karte somit deutlich ineffizienter. Das ging so weit, dass die Karte mit gleichem UV-Offset bei 300W weniger Takt erreicht hat als mit 270W. Wenn deine Karte auch so einen komischen Knick hat, ist es wenig überraschend, dass mit 374W auch -150mV stabil laufen. Die Frage ist, wieviel Mehrleistung da überhaupt noch bei rumkommt ...
Hi,
ich kann hier nur meine Erfahrung mit der Red Devil schildern, vielleicht habe ich auch nur ein schlechtes Model erwischt.
Die Red Devil hatte ich bestellt da eh ein Wasserblock draufkommt und ich keinen 12VHPR Stecker im System haben möchte, sonst wäre es die Taichi geworden.
Out of the Box sind die Temperaturen mit dem OC Bios direkt an die Grenze gegangen, es sah von der Telemetrie schon so aus als ob die Karte direkt thermisch bedingt drosselt, Hotspot 92°/Speicher 90°.
Da mein O11 EVO XL Gehäuse und Wakü Buld für den Semi passiven Betrieb optimiert ist, hatte ich es komplett offen gelassen so dass die Karte praktisch an der frischen Luft war.
Ich hatte nach zwei Tagen direkt die Wärmeleitpads gegen TG Minus pad pro getauscht, und Krynoaut extrem auf die gpu geklatscht und kurz über flüssig Metall nachgedacht^^.
Das hat bei dem Luftkühler etwas Abhilfe geschaffen, grob 4° beim Speicher und hotspot, ist aber nicht im Sinne des Erfinders und der Garantie^^
Grundsätzlich war mein Eindruck das der Luftkühler Probleme hatte die Hitze adäquat abzuführen.
Die Temperaturen unter Wasser geben da etwas Aufschluss da sie jetzt bei 42° Chip/ 48° Hotspot(Mit Kryo Sheet bei 365W/+10%PT) / 45° Speicher(2700 MHZ fast Timing), bei 37° Wassertemp unter Last im Sommer(Wasser Temp Delta zur Raumtemperatur sind 13° bei mir unter Volllast).
Ich hatte noch nie so niedrige Temperaturen bei einer Grafikkarte unter Wasser, der Luftkühler meiner Red Devil hatte einfach Probleme die Hitze sinnvoll an die Umgebung abzuführen.
Von den Testberichten und Teardowns her scheint mit die Tachi das bessere Produkt zu sein, bis auf den Stromstecker^^.
Wie gesagt ist jetzt meine Erfahrung mit meinen speziellen Rahmenbedingung im Gehäuse, bei einem Gehäuse Build mit einem vernünftigen Airflow kann das ganze schon deutlich anders aussehen.
Hakim
2025-08-19, 09:53:23
Schon erstaunlich wie unterschiedlich die Erfahrungen bei den 9070XTs mit den selben Karten gemacht werden. Hat schon was vom Glücksspiel irgendwie
Wohl war,
bei meiner Red Devil war im übrigen Wäremleitpaste statt dem auf der Hompage beworbenen PTM7950 Phasenpad verbaut.
Könnte ein Rückläufer gewesen sein von den Kollegen die fröhlich zig Karten durchtesten^^
nairune
2025-08-19, 10:04:42
Hat sie denn auch adäquat aufgedreht? ~90°C können auch einfach als Temperaturziel eingestellt sein, das sagt dann nicht viel über den Kühler aus. Also haben die Lüfter richtig Gas gegeben?
Jup, die Lüfter liefen korrekt, hatte auch diverse Einstellungen mit höheren Drehzahlen selber ausprobiert, das hatte zwar Abhilfe gebracht, aber auch unerträgliche Lautstärke^^.
Gott sei Dank kam der Wasserblock nach zwei Monaten endlich in DE an.
nairune
2025-08-19, 10:11:25
Was heißt denn "korrekt"?
War sie leise oder laut mit den 90°C?
Damit meine ich unter 60° Lüfter aus, und unter Last Temperaturgesteuert bis auf 1800 rpm hoch.
Zu laut und leise mag ich nix sagen, da ich seit Jahren alle Komonenten in einem Custom Lopp habe, und die 140mm Lüfter halt mit max 800 rpm drehen und bei geschlossenem Gehäuse ist das System halt lautlos.
Da ich diese Stille gewohnt bin empfinde ich hochdrehenden Lüfter Grundsätzlich als Laut, in diesem Fall hatte ich das Gehäuse ja noch zusätzlich offen gelassen.
nairune
2025-08-19, 10:36:03
Also ist sie laut, 1800 RPM sind extrem hoch. Dann klingt das wie da war was nicht in Ordnung, bei CB läuft sie ja mit unter 1000 RPM.
"Diese Stille" kann man übrigens auch mit Luftkühlern gewohnt sein ;)
140mm mit 800 rpm sind m.E. auch schon grenzwertig zu leise, je nach Lüfter
dargo
2025-08-19, 15:23:33
140mm mit 800 rpm sind m.E. auch schon grenzwertig zu leise, je nach Lüfter
Das würde ich so unterschreiben. Mein 140mm be quiet! Silent Wings 3 ist zb. auf max. 700RPM bei Last eingestellt, Idle dann 300RPM. Der ist allerdings im Gehäusedeckel montiert. Wäre der auf dem CPU-Kühler bsw. drauf gingen für mich womöglich auch 800RPM oder 750RPM. Die Geräusche werden in dem Fall dann etwas besser vom Gehäuse geschluckt was etwas mehr Drehzahl "erlaubt".
dargo
2025-08-20, 08:12:26
Hier mal ein kleines Video von mir aus DS wie sich das mit der Power verhält wenn die GPU in ein Taktlimit läuft, hier oft höchstwahrscheinlich auch wegen CPU-Limit da der Takt erheblich unter ~2,88Ghz runter geht. So gefällt mir N48 extrem gut. :up: Mit Videoaufnahme @ReLive liegt die Power ca. 8-10W höher als tatsächlich.
4k + FSR 4 Quality (-50mV, -500Mhz, max. 261W), Raum = 24°C
2B8OABw-l7U
Man stelle sich vor AMD würde -700-800Mhz im Treiber beim Taktoffset erlauben. :eek: Wir sollten vielleicht mal eine Petition bilden oder so. ;)
Freestaler
2025-08-20, 08:25:11
Skar, wenn deine auf 1800 RPM hoch ging, dann war doch da was defekt oder wie von Dir erwähnt falsch bzw. manipuliert (kein PTM). Hat sonst noch wer ne RedDevil? Bei der Asrock gefällt mir der neue Stecker noch nicht so recht (biegungsradius im Case wird knapp).
Ja, der Verdacht liegt nahe,
und und den hatte/habe ich auch als ich gesehen habe das das PTM fehlt.
da waren allerdings die Garantie Siegel bereits Fratze^^.
da ich bei einem Freund die Woche seine PC auf Custom Loop PC umgebaut habe, kann ich bei der Hellhound XT die er sich gekauft hat das Phasenpad bestätigen.
mit dem Wasserblock drauf ist soweit alles in Ordnung und die Karte läuft soweit stabil mit OC und UV.
dargo
2025-08-20, 09:39:58
@Freestaler
Vielleicht hilft dir das hier etwas, leider aber noch mit Hynix damals. Angeblich sollen die 1.300RPM immer noch brutal leise sein.
https://youtu.be/0pT3ayKxiT0?si=ETpdDhIQS94nuyJ6&t=208
PS: bei den 1.300RPM höre ich aber eine unschöne Frequenz raus, diese Art wieder von Wooohooo. :D Ob das dann immer noch aus einem geschlossenen Gehäuse hörbar ist steht in den Sternen.
Edit:
Wobei diese unschöne Frequenz auch nach dem Stresstest zu hören ist wo nur noch seine Gehäuselüfter zu hören sind. Womöglich kommt das Geräusch von seinen Gehäuselüftern also. Allerdings ist es dann wieder komisch, dass dieses Geräusch nicht bei den 9xxRPM zu hören ist. Aber wer weiß wie seine Lüftersteuerung konfiguriert ist. Möglicherweise laufen die Gehäuselüfter mit dem Silentbios etwas langsamer wodurch diese eine, auffällige Frequenz wieder verschwindet.
Oder das hier.
https://youtu.be/tZJq0dlvQaM?si=jx320_z__aCDTyyg&t=653
Witzig finde ich hier die kleinen Unterschiede zwischen Red Devil weiß und schwarz. Wird wohl Fertigungstoleranz sein. Bedenke hier aber das ist ein offener Aufbau, ergo ca. 5-7°C Puffer für ein geschlossenes Gehäuse mitdenken.
Freestaler
2025-08-20, 10:25:03
Ich bin Team 300-500 RPM Idle und unter last darf ein leiser 140 auch mal Richtung 800, max 900 gehen. Hmm mal schauen ob mit dem Motorrad klappt (angebot an verkäufer ist raus). Wenn nicht gibts ne Graka. Und dann schauen was lieferbar ist.
Langlay
2025-08-20, 19:22:08
Was ist den für ne 9070XT so der Goldstandard für Stabilitätstest ? Also welcher Benchmark/Spiel ist am unverzeihlichsten für UV/OC.
dargo
2025-08-20, 19:40:38
Bei mir bisher eine Szene aus Ratchet & Clank welche keine -60mV auf der Hellhound XT überlebt. Alle Spiele die ich bisher so angespielt hatte laufen auch mit mehr negativ Offset. Ich kann gerne das entsprechende Savegame hochladen wenn Bedarf besteht. Getestet hatte ich aber bisher nur mit reinem Raster bei den Settings ohne RT. Kann sein, dass mit RT mehr geht weil sich die Lastverteilung verändert.
Edit:
Mir fällt gerade ein eventuell liegt es an Direct Storage in diesem Spiel, dass hier am wenigsten geht. Mehr Arbeitsstress für die Grafikkarte?
Freestaler
2025-08-20, 19:48:34
RedDevil ist bestellt. Mal schauen wie sie wird. 6900 geht in die Bucht (ricardo.ch) ab 200.
Langlay
2025-08-20, 19:51:42
Bei mir bisher eine Szene aus Ratchet & Clank welche keine -60mV auf der Hellhound XT überlebt. Alle Spiele die ich bisher so angespielt hatte laufen auch mit mehr negativ Offset. Ich kann gerne das entsprechende Savegame hochladen wenn Bedarf besteht. Getestet hatte ich aber bisher nur mit reinem Raster bei den Settings ohne RT. Kann sein, dass mit RT mehr geht weil sich die Lastverteilung verändert.
Das hab ich leider nicht.
OCmylife
2025-08-20, 20:08:18
Das hab ich leider nicht.
Ich habe beim OC der 4080 Super festgestellt, dass sich Indiana Jones auch hervorragend als Stabilitätstest eignet. Das quittiert Dir instabile Taktraten innerhalb weniger Minuten mit einem Crash. :freak:
dargo
2025-08-20, 20:10:18
Was hat denn eine 4080S mit einer 9070XT zu tun? :freak:
Am besten ausloten kannst du es in den Spielen, wo relativ wenig Last anliegt und dir der Takt durch die Decke geht. Was du machen kannst ist dem Fall, daß UV verringern, oder den Taktoffset verringern, oder du machst es wie ich und gibst jedem Spiel sein eigenes Taktprofil. So bist du in jedem Spiel auf der sicheren Seite, ohne Performance zu verschenken.
Langlay
2025-08-20, 20:14:42
Ich habe beim OC der 4080 Super festgestellt, dass sich Indiana Jones auch hervorragend als Stabilitätstest eignet. Das quittiert Dir instabile Taktraten innerhalb weniger Minuten mit einem Crash. :freak:
Naja in meiner Errinnerung wars mit der 4090 nicht besonders auffällig, aber ich werds mal probieren.
Am besten ausloten kannst du es in den Spielen, wo relativ wenig Last anliegt und dir der Takt durch die Decke geht. Was du machen kannst ist dem Fall, daß UV verringern, oder den Taktoffset verringern, oder du machst es wie ich und gibst jedem Spiel sein eigenes Taktprofil. So bist du in jedem Spiel auf der sicheren Seite, ohne Performance zu verschenken.
Ich hätte lieber ein Profil das überall stabil ist. Ob die Karte jetzt 5% schneller oder langsamer ist, ist mir eher egal.
dargo
2025-08-20, 20:21:55
Ich hätte lieber ein Profil das überall stabil ist. Ob die Karte jetzt 5% schneller oder langsamer ist, ist mir eher egal.
Da wirst du keine 5% bekommen, viel zu hoch gegriffen. :D Und ja... mir wäre das auch zu dämlich ein passendes Profil für jedes Spiel auszuloten. Ich richte mich ebenfalls nach dem worst case aus den ich vorfinde.
Freestaler
2025-08-20, 20:33:39
Top wäre ein Worstcase, welcher jeder for free nachstellen könnte. Hat da einer ne Idee?
OCmylife
2025-08-20, 22:13:46
Was hat denn eine 4080S mit einer 9070XT zu tun? :freak:
Das Spiel unterscheidet bei der Auslastung und Stabilität sicher, ob da AMD oder Nvidia auf der GPU steht. 😉
dargo
2025-08-20, 22:49:35
Schon mal daran gedacht, dass unterschiedliche Architekturen unterschiedliche Bottlenecks haben?
nairune
2025-08-20, 23:30:26
Ich hätte lieber ein Profil das überall stabil ist. Ob die Karte jetzt 5% schneller oder langsamer ist, ist mir eher egal.
Wenn dir das egal ist, gewünschtes Powerlimit einstellen und du bist fertig?
Langlay
2025-08-20, 23:40:08
Wenn dir das egal ist, gewünschtes Powerlimit einstellen und du bist fertig?
Bischen mehr Spieltrieb hab ich schon, das ich auch die UV Spannung ausloote.
Bin aktuell bei 280W PL (-15%), -500MHz, -75mV und RAM auf 2800.
Bis jetzt ist aber noch nichts abgeschmiert. Aber da mach ich erst morgen weiter. Hab jetzt jeweils ~1h Cyberpunk und KCD2 gespielt.
Tigershark
2025-08-20, 23:57:30
ich glaube, _meistens_ ist -75mV bei N48 safe. ABER dann gibt es immer wieder Kombinationen von niedriger Last/hohem Takt oder plötzlichen Powerpeaks, die dann eben doch zu Abstürzen führen (können). Und dann spielt natürlich die Silikonlotterie mit rein.
Ich hab mit meiner non-XT bislang bei -85mV und -10%PT keine Kombo gefunden, die einen Absturz verursacht hätte und fahre das jetzt als default Setting.
Bandit3644
2025-08-21, 05:55:40
Bei meiner 9070XT ist PL (-15%), -350MHz, -70mV bis jetzt stabil allerdings ist der Verbrauch bei max. nur 257 Watt. Den Ram habe ich nicht angerührt.
dargo
2025-08-21, 07:18:04
Bischen mehr Spieltrieb hab ich schon, das ich auch die UV Spannung ausloote.
Bin aktuell bei 280W PL (-15%), -500MHz, -75mV und RAM auf 2800.
Bis jetzt ist aber noch nichts abgeschmiert. Aber da mach ich erst morgen weiter. Hab jetzt jeweils ~1h Cyberpunk und KCD2 gespielt.
Vram aufpassen, kann auch ab Wert X etwas bremsen. Ergo dann sinnfrei.
btw.
Habe noch ein Video von GoW aufgenommen um im Gameplay zu zeigen wie gut der Hellhound XT Kühler ist. Leider vergessen, dass ReLive sich ca. 10W vom Powerbudget krallt sonst hätte ich für das Video 270W genommen damit man sieht wie die Graka auch öfter ins Taktlimit mit dem neuen Betriebspunkt inkl. -50mV UV rennt. Ohne Aufnahme mit max. 261W sind es öfter auch 25xW. Dank Videoaufnahme sind es hier halt jetzt praktisch dauerhaft 261W.
4k + FSR 4 balanced, max. Settings (Raum = 25°C)
BUGFsroixkc
Ich weiß... ich wiederhole mich. Man muss das Game einfach in HDR auf einem OLED erleben. Völlig anderes, visuelles Erlebnis.
Freestaler
2025-08-21, 07:32:17
Hat einer kurz ein Printscreen seiner Settings? Oder gibt irgendwo nen guten Guide?
Hakim
2025-08-21, 07:38:28
Ist halt von Karte zu Karte, Chipgüte, unterschiedlich, einfach selber rantasten und schriftweise sehen wo langsam es problematisch wird. Gut wäre einige belastende Spiele zu testen, pro step.
dargo
2025-08-21, 07:48:17
Hat einer kurz ein Printscreen seiner Settings? Oder gibt irgendwo nen guten Guide?
Damit kannst du erstmal anfangen. Powerlimit je nach Lust/Laune, Verstand oder einfach Kühlerperformance. ;)
93947
Langlay
2025-08-21, 08:25:59
Vram aufpassen, kann auch ab Wert X etwas bremsen. Ergo dann sinnfrei.
https://i.imgur.com/0z65Q2r.png
Ich hab mit memtest_vulkan den Takt ausgelootet ab dem es keine Performancegewinne durch Vram Takt Erhöhung gibt, war bei mir bei 2850 MHz bin 50MHz zurück gegangen um auf der sicheren Seite zu sein. Allerdings soll PUBG relativ empfindlich bei den 9070 auf instabilen Vram sein. Das werd ich nachher auch nochmal testen.
Freestaler
2025-08-21, 08:30:27
@Dargo, danke dir. Mhz wohl boostspitzen kappen, uv klar, tdp regler auch. Passt mal schauen wo ich nach ein paar Wochen dann lande.
dargo
2025-08-21, 08:32:15
@Langlay
Vergleiche nicht nur das sondern auch die Performance. Bei mir wurde bsw. CP77 mit bereits +100Mhz minimal langsamer. Ob das an der Fehlerkorrektur bereits bei so einer kleinen Erhöhung liegt mag ich eher anzweifeln (nicht genauer untersucht). Vielmehr habe ich den Speichercontroller in Verdacht der sich einfach mehr Powerbudget dann schnappt wodurch dann etwas weniger Budget der GPU zur Verfügung steht. Vram an sich frisst ja eher sehr wenig. Müsste ich mir noch genauer ansehen. Sollte tatsächlich der Speichercontroller bei Vram-OC sehr hungrig (dann ist er aber bereits @Stock sehr hungrig) sein würde hier MPT Abhilfe schaffen. Gibts leider nicht bei RDNA4.
Mhz wohl boostspitzen kappen...
Ich mache das hauptsächlich weil das Ding bei den sehr hohen Boostspitzen reinste Energieverschwendung ist. Kann jeder sehen wie er möchte.
Langlay
2025-08-21, 08:38:03
@Langlay
Vergleiche nicht nur das sondern auch die Performance. Bei mir wurde bsw, CP77 mit bereits +100Mhz minimal langsamer. Ob das an der Fehlerkorrektur bereits bei so einer kleinen Erhöhung liegt mag ich eher anzweifeln (nicht genauer untersucht). Vielmehr habe ich den Speichercontroller in Verdacht der sich einfach mehr Powerbudget dann schnappt wodurch dann etwas weniger Budget der GPU zur Verfügung steht. Vram an sich frisst ja eher sehr wenig. Müsste ich mir noch genauer ansehen.
Ich vermute das wird am Powerlimit liegen, bei mir sind zwischen Stock und 2800MHz FT 10-20W mehr Boardpower in nicht PL limitierten Szenarien.
Ich hab mit dem 280W PL auch noch etwas mehr Spielraum als du.
dargo
2025-08-21, 08:41:38
Ich vermute das wird am Powerlimit liegen, bei mir sind zwischen Stock und 2800MHz FT 10-20W mehr Boardpower in nicht PL limitierten Szenarien.
Ich hab mit dem 280W PL auch noch etwas mehr Spielraum als du.
Ja... dieser Punkt kommt noch hinzu. 10-20W mehr finde ich aber schon heftig, danke für den Vergleich.
Hakim
2025-08-21, 08:53:01
Wie viel macht den 100Nhz Vram OC aus? Normal würde man ja denken da die Konkurrenz schon deutlich schnelleren Ram nutzt würde es vielleicht gut helfen, aber ja andere Architektur, Infinity Cache etc
dargo
2025-08-21, 09:00:58
Wie viel macht den 100Nhz Vram OC aus?
So viel, dass bereits CP77 ca. einen halben Frame (bei >100fps) in einem 261W Powerbudget langsamer ist. ;)
Tigershark
2025-08-21, 09:03:38
also bei allen Tests, die ich bisher so gelesen habe, ist VRAM OC bzw. die Performancegewinne dadurch vernachlässigbar gewesen, obwohl die Specs von N48 durchaus hier eine Limitierung suggerieren.
Hakim
2025-08-21, 09:03:53
Ja dann kann man es auch ganz lassen :)
dargo
2025-08-21, 09:05:45
also bei allen Tests, die ich bisher so gelesen habe, ist VRAM OC bzw. die Performancegewinne dadurch vernachlässigbar gewesen, obwohl die Specs von N48 durchaus hier eine Limitierung suggerieren.
Auch mal mit bsw. 330W Powerbudget verglichen? Wie schon gesagt... je kleiner das Powerbudget umso sinnfreier Vram-OC. Und wenn ich richtig deine Sig. deute hast du eine RX 9070 non XT. Das Ding hat eh mehr Bandbreite pro Recheneinheit zur Verfügung.
Langlay
2025-08-21, 09:09:31
Stock Vram
https://i.imgur.com/KpZRS5z.jpeg
2700MHz Vram
https://i.imgur.com/9KE1Ahc.jpeg
2800MHz Vram
https://i.imgur.com/T6ZfVge.jpeg
dargo
2025-08-21, 09:12:55
Boah... bitte Thumbnails verwenden. Die Lesbarkeit leidet bei diesen riesen Bildern extrem.
btw.
Hast du da irgendwo schnelles Timing drin oder alles Standard?
Langlay
2025-08-21, 09:17:13
Boah... bitte Thumbnails verwenden. Die Lesbarkeit leidet bei diesen riesen Bildern extrem.
Hilf dir selbst : Kontrollzentrum (vom Forum) -> unter Einstellungen & Optionen auf Einstellungen ändern und etwas runterscrollen :
https://i.imgur.com/nG6urCe.png
btw.
Hast du da irgendwo schnelles Timing drin oder alles Standard?
Timings war jeweils Standard.
dargo
2025-08-21, 09:20:54
Hilf dir selbst : Kontrollzentrum (vom Forum) -> unter Einstellungen & Optionen auf Einstellungen ändern und etwas runterscrollen :
https://i.imgur.com/nG6urCe.png
Das ist trotzdem Käse. Will ich mir was im Bilder-Thread ansehen muss ich das wieder ändern, nervig. Die Thumbnails wurden nicht ohne Grund erfunden.
Langlay
2025-08-21, 09:22:43
Das ist trotzdem Käse. Will ich mir was im Bilder-Thread ansehen muss ich das wieder ändern, nervig. Die Thumbnails wurden nicht ohne Grund erfunden.
Das grosse Bild ist in dem Fall dann nur einen Klick entfernt :
https://i.imgur.com/OmNvLmk.png
dargo
2025-08-21, 09:24:18
Bei dir ja, im Bilderthread nicht.
Edit:
Halt... ich muss den Thread aktualisieren dann geht es auch dort. Fehler im 3DC oder Chrome?
btw.
Lol... das ist jetzt wirklich etwas seltsam. :D Vorher hatte ich ca. halben Frame weniger gehabt mit RAM-OC. Bin mir nur nicht mehr sicher ob ich da bei max. 250W war oder 261W. Was sicher ist... ich hatte immer Fast Timings verwendet, außer bei Stock. Jetzt skaliert tatsächlich Vram-OC hier positiv, egal ob 304W Powerbudget oder 261W.
Stock 304W, no Fasttimings
https://i.postimg.cc/BPGYFYRT/Cyberpunk2077-2025-08-21-09-34-44-606.jpg (https://postimg.cc/BPGYFYRT)
304W, non Fasttimings, 2,7Ghz VRAM
https://i.postimg.cc/7GSXq1bf/Cyberpunk2077-2025-08-21-09-37-57-757.jpg (https://postimg.cc/7GSXq1bf)
261W, -50mV, no Fasttimings
https://i.postimg.cc/crkz9m3S/Cyberpunk2077-2025-08-21-09-42-02-620.jpg (https://postimg.cc/crkz9m3S)
261W, -50mV, no Fasttimings, 2,7Ghz VRAM
https://i.postimg.cc/jL18QjVq/Cyberpunk2077-2025-08-21-09-45-18-505.jpg (https://postimg.cc/jL18QjVq)
Bevor ich aber den VRAM übertakte (und somit auch den Speichercontroller) gehe ich lieber auf Fasttimings, bringt im Prinzip das selbe.
261W, -50mV, Fasttimings, no VRAM-OC
https://i.postimg.cc/Y40YX6QJ/Cyberpunk2077-2025-08-21-10-00-15-503.jpg (https://postimg.cc/Y40YX6QJ)
Tigershark
2025-08-21, 09:46:17
Auch mal mit bsw. 330W Powerbudget verglichen? Wie schon gesagt... je kleiner das Powerbudget umso sinnfreier Vram-OC. Und wenn ich richtig deine Sig. deute hast du eine RX 9070 non XT. Das Ding hat eh mehr Bandbreite pro Recheneinheit zur Verfügung.
Ja, ich habe schon eine non-XT, aber ich rede ja nicht von mir, sondern von "echten" Tests und da meinte ich schon 9070 XT Karten. Im Vergleich zum OC/UV/PT Tweaking auf Seiten der GPU selbst sind die gains beim VRAM den Aufwand mMn schlicht nicht wert.
*edit*
Es gibt ja jetzt den Solar Bay Extreme Test in 3DMark... weiß nicht, ob der buggy ist oder ob das ein Verhalten der 9070 ist, aber folgende Beobachtung:
Desktoprefreshrate auf 144Hz, maxclock GPU: 2698 MHz, FPS 132,x, Score 18932:
https://s1.directupload.eu/images/250821/temp/4hbtz5p5.jpg (https://www.directupload.eu/file/d/9018/4hbtz5p5_jpg.htm)
Zum Vergleich, Desktoprefreshrate auf 120Hz, maxclock GPU: 2803 MHz, FPS 120 (Limit), Score 17160:
https://s1.directupload.eu/images/250821/temp/zqbli2oz.jpg (https://www.directupload.eu/file/d/9018/zqbli2oz_jpg.htm)
Also... die GPU taktet _höher_, ich habe aber weniger FPS bei 120Hz (da greift das VSYNC, obwohl das komisch ist da Freesync aktiv ist, ist aber reproduzierbar) als
bei 144Hz mit WENIGER Takt. Ist das ein Zeichen dafür, dass bei 120Hz weniger Last anliegt wegen dem FPS-Limit und deswegen die GPU höher taktet oder was sehe ich hier?
dargo
2025-08-21, 10:19:24
Ist das ein Zeichen dafür, dass bei 120Hz weniger Last anliegt wegen dem FPS-Limit und deswegen die GPU höher taktet oder was sehe ich hier?
Ja... max. Clock ist eh wayne (ist nur ein Peak für einen kleinen Augenblick irgendwo im Benchmark), avg. Clock ist das einzige was zählt. Du kannst das viel besser mit CapFrameX loggen.
btw.
Da fällt mir gerade ein... ich würde da aktuell eh nicht jeden einzelnen Wert bei Takt und Power auf die Goldwaage legen. Ich sehe zb. nicht selten, dass trotz 261W Deckel manchmal was spürbar drüber geht. Ist halt die Frage ob die Telemetrie noch vereinzelt einen "Schluckauf" hat oder die Auslesetools bestimmte Werte falsch interpretieren.
Tigershark
2025-08-21, 10:34:13
Ja... max. Clock ist eh wayne (ist nur ein Peak für einen kleinen Augenblick irgendwo im Benchmark), avg. Clock ist das einzige was zählt. Du kannst das viel besser mit CapFrameX loggen.
btw.
Da fällt mir gerade ein... ich würde da aktuell eh nicht jeden einzelnen Wert bei Takt und Power auf die Goldwaage legen. Ich sehe zb. nicht selten, dass trotz 261W Deckel manchmal was spürbar drüber geht. Ist halt die Frage ob die Telemetrie noch vereinzelt einen "Schluckauf" hat oder die Auslesetools bestimmte Werte falsch interpretieren.
Ja, da hast Du vermutlich recht.
3DM selbst protokolliert auch die durchschnittliche Taktfrequenz, auch die ist bei dem niedrigeren Resultat (rechts) höher:
https://s1.directupload.eu/images/250821/temp/2klclz2x.jpg (https://www.directupload.eu/file/d/9018/2klclz2x_jpg.htm)
Aber irgendwas ist da strange. Wenn ich VSYNC global deaktiviere, geht meine CPU-Last massiv runter, dafür gibt es dann komische Peaks von >3,1GHz bei der GPU und >4,9GHz bei der CPU (lt. Telemetrie)...
Hakim
2025-08-21, 10:37:17
Wie kann man Fasttimings aktivieren?
dargo
2025-08-21, 10:38:23
Im Treiber seit gefühlt einer Ewigkeit. Wobei ich hier auch gerne noch ein externes Tool für die Timings hätte. Einfach nur um zu sehen ob da noch mehr geht.
Tigershark
2025-08-21, 10:44:51
Wie kann man Fasttimings aktivieren?
hier:
https://s1.directupload.eu/images/250821/po5psu94.jpg (https://www.directupload.eu)
Hakim
2025-08-21, 12:49:31
Ja sry falls meine Fragen für AMD User selbstverständlich sind, meine letzte Radeon ist lange her
aufkrawall
2025-08-21, 12:59:46
Bringt halt im besten Fall nichts, kann aber das System hart crashen wie eine Boeing.
dargo
2025-08-21, 15:33:37
Ja sry falls meine Fragen für AMD User selbstverständlich sind, meine letzte Radeon ist lange her
Achso... dann sag das doch gleich. :)
Bringt halt im besten Fall nichts, kann aber das System hart crashen wie eine Boeing.
Man kann es auch übertreiben. Bei N21 konnte ich sogar für 2100Mhz VRAM auf 1006mV (Stock 1150mV) beim SoC runter inkl. Fasttimings. In den letzten ~4 Jahren ist da nichts deswegen gecrashed. Und N48 ist damit auch vollkommen unauffällig bisher. Die Timings sind beim Samsung GDDR6 aber womöglich entschärft oder der Hynix war da zickig, will ich nicht unbedingt ausschließen wollen.
dargo
2025-08-21, 15:36:49
del
aufkrawall
2025-08-21, 15:40:38
Man kann es auch übertreiben. Bei N21 konnte ich sogar für 2100Mhz VRAM auf 1006mV (Stock 1150mV) beim SoC runter inkl. Fasttimings. In den letzten ~4 Jahren ist da nichts deswegen gecrashed.
Vielleicht nicht deswegen. Aber wenn man es damit mit dem UV oder RAM-OC auch nur etwas übertreibt, kann es schon mal eine Trennung vom Strom brauchen, damit die Karte unter Windows wieder korrekt erkannt wird.
Rentner
2025-08-21, 18:31:28
Bringen bei euch die schnellen Timings überhaupt einen nennenswertes Gewinn an Leistung?
Hab das vor Monaten mal getestet mit CP2077 und dem 3DMark Stahl Nomaden. War immer nur ein Plus von <1FPS
Auch ein höherer Takt bringt nicht wirklich viel
dargo
2025-08-21, 19:02:15
Du siehst doch die Ergebnisse auf der letzten Seite. :confused: Nennenswert ist daran sicherlich nichts. Ich betrachte es einfach aus einem anderen Blickwinkel. Durch Fasttimings spare ich mir ca. 8W Power ein. Denn diese Power müsste ich wieder in die GPU investieren um gleiche fps zu erreichen.
Rentner
2025-08-21, 20:02:37
Du siehst doch die Ergebnisse auf der letzten Seite. :confused: Nennenswert ist daran sicherlich nichts. Ich betrachte es einfach aus einem anderen Blickwinkel. Durch Fasttimings spare ich mir ca. 8W Power ein. Denn diese Power müsste ich wieder in die GPU investieren um gleiche fps zu erreichen.
Hab das alles nur überflogen
Ich hänge in diesem Thread locker 10 Seiten zurück :rolleyes:
phoenix887
2025-08-22, 00:08:18
Du siehst doch die Ergebnisse auf der letzten Seite. :confused: Nennenswert ist daran sicherlich nichts. Ich betrachte es einfach aus einem anderen Blickwinkel. Durch Fasttimings spare ich mir ca. 8W Power ein. Denn diese Power müsste ich wieder in die GPU investieren um gleiche fps zu erreichen.
Und sich dann über instabile Programme wie Chrome wundern. Mein Humor :D
Hakim
2025-08-22, 10:31:49
Jetzt auch bei 9070XT das 12HPWR Problem, und das bei gerade mal 340W und damit weit weg von der Kapazitätsgrenze von 600W. Könnte aber hier ein Einzelfall gewesen sein, dennoch motiviert eher direkten 3x 8pin Karte zu holen
https://videocardz.com/newz/first-radeon-rx-9070-xt-user-reports-melted-12v-2x6-adapter
][immy
2025-08-22, 10:57:02
Jetzt auch bei 9070XT das 12HPWR Problem, und das bei gerade mal 340W und damit weit weg von der Kapazitätsgrenze von 600W. Könnte aber hier ein Einzelfall gewesen sein, dennoch motiviert eher direkten 3x 8pin Karte zu holen
https://videocardz.com/newz/first-radeon-rx-9070-xt-user-reports-melted-12v-2x6-adapter
Der Stecker ist halt ein kompletter Reinfall. Da hat jemand nicht damit geplant, das die Fertigung und Ausführung (Anbringung) nicht immer 1:1 nach Lehrbuch durchgeführt wird. Es gibt viel zu wenig Toleranz bei diesem Stecker und das ist für einen Plastikstecker bei den die Adern relativ locker drin sitzen (oder halt an der falschen Stelle) dann einfach zu viel. Und da dann noch mehr Leistung drüber laufen lassen, als über die älteren dickeren Stecker ...
Es kommt ja noch hinzu, das durch die Reibung (als das aufstecken) sich die Kontakte langsam abarbeiten. Und wenn dann winzige Metallspähne darin verbleiben, können diese sich schnell entzünden oder sorgen für schlechteren Kontakt, so das die anderen Stecker mehr abbekommen. Das ganze ist ein reines Problem der Toleranzen, die bei dem Format absolut falsch (weil quasi nicht vorhanden) spezifiziert wurden.
Im Grunde gibt es die gleichen Probleme auch mit den alten Steckern, aber die Toleranzen, allein durch deren Dicke und Größe (und Anzahl an Leitungen) sind einfach deutlich höher, so das diese Probleme nur extrem selten überhaupt zu einem Problem werden.
Ich weiß echt nicht, warum man den Standard nicht verwirft. Mag aber am Stolz einiger Hersteller nagen.
dargo
2025-08-22, 10:59:59
Jetzt auch bei 9070XT das 12HPWR Problem, und das bei gerade mal 340W und damit weit weg von der Kapazitätsgrenze von 600W. Könnte aber hier ein Einzelfall gewesen sein, dennoch motiviert eher direkten 3x 8pin Karte zu holen
https://videocardz.com/newz/first-radeon-rx-9070-xt-user-reports-melted-12v-2x6-adapter
Wer sich diesen Stecker freiwillig antut ist selbst schuld. Gab mehr als genug Warnsignale aus der Geforce Ecke mit diesem Stecker. Einzelfälle hin oder her, ich meide definitiv diesen Stecker und hoffe auch, dass der bei RDNA5 nicht zum Standard bei allen AIBs wird. Wenn ja, dann aber bitte eine überarbeitete, sichere Version.
Ein neuer, kompakterer Stecker muss einfach her. 9070-XT-Karten verfügen teils über drei Oldschool-8-Pol-Buchsen - das ist fett und hässlich.
MfG
Raff
OgrEGT
2025-08-22, 11:37:09
Ein neuer, kompakterer Stecker muss einfach her. 9070-XT-Karten verfügen teils über drei Oldschool-8-Pol-Buchsen - das ist fett und hässlich.
MfG
Raff
Besser als schön und kaputt/gefährlich...
Rentner
2025-08-22, 12:10:12
Man hätte sich da besser bei vorhandenen Industriesteckern und Kabeln bedient. Da gibt´s so viele vorhandene Varianten die ganz andere Ströme übertragen.
Und wenn es ein fetter Harting geworden wäre :cool:
https://www.harting.com/de-DE/c/Industrie-Steckverbinder-Han-57904
dargo
2025-08-22, 12:19:12
Ein neuer, kompakterer Stecker muss einfach her. 9070-XT-Karten verfügen teils über drei Oldschool-8-Pol-Buchsen - das ist fett und hässlich.
Und auch völlig unnötig wie eine Sapphire Pulse/Pure XT oder Hellhound XT eindrucksvoll zeigen. :cool: Diese ganzen bescheuerten, unausgereiften neuen Stecker sind überhaupt nicht notwendig. Auch keine 3x 8-Pol wenn die IHVs/AIBs keine hirnverbrannten Powerlimits fahren. Die RX 7900XTX Hellhound die ich über eine Woche damals hier hatte war selbst von 400W @OC unbeeindruckt mit 2x 8 Pol. Das liegt auch daran, dass diese Stecker/Kabel einen Sicherheitspuffer von Faktor 1,9 haben!
btw.
Hatte ich schon gesagt wie grandios der Kühler der Hellhound XT ist? :tongue:
https://i.postimg.cc/ZCs5wg2z/God-of-War-2025-08-22-11-28.jpg (https://postimg.cc/ZCs5wg2z) https://i.postimg.cc/MncKN5JM/God-of-War-2025-08-22-11-37.jpg (https://postimg.cc/MncKN5JM) https://i.postimg.cc/Q9D8Br91/God-of-War-2025-08-22-11-39.jpg (https://postimg.cc/Q9D8Br91) https://i.postimg.cc/N9xgmPmV/God-of-War-2025-08-22-12-11.jpg (https://postimg.cc/N9xgmPmV)
Bester Wurf von AMD und hier natürlich auch Powercolor nach N21. :up: Raum aktuell bei 24,1°C, Temps in den Bildern selbstverständlich nach einer guten Aufwärmphase des Systems.
Rentner
2025-08-22, 12:47:34
btw.
Hatte ich schon gesagt wie grandios der Kühler der Hellhound XT ist? :tongue:
[/URL][/url]
Mir ist irgendwie so als ob ich das in ähnlicher Form vor einer Million Seiten schon mal geschrieben hab :wink::tongue:
dargo
2025-08-22, 13:00:08
Mir ist irgendwie so als ob ich das in ähnlicher Form vor einer Million Seiten schon mal geschrieben hab :wink::tongue:
:biggrin:
Vor einer Million Seiten war leider der Preis der Karte noch kacke. :) Und ich hatte damals zusätzlich noch Bedenken wegen der min. 800RPM in Idle. Zum Glück sind diese aus meinem Gehäuse nicht herauszuhören, insofern eine perfekte Grafikkarte. :up:
Disco_STFU
2025-08-22, 13:08:23
Unter 600€ für so ne gute XT ist schon fast kriminell! :D
dargo
2025-08-22, 13:16:27
In der Tat. :D
Aber ehrlicherweise gehört ein N48 auch dort hin @~600€. Nur so ein Preis mit dieser Leistung bringt das gesamte PC-Gaming wieder ein gutes Stück nach vorne und nicht der scheiß mit mehr Leistung, aber auch höheren Preisen vs. Vorgänger.
][immy
2025-08-22, 20:55:31
Ein neuer, kompakterer Stecker muss einfach her. 9070-XT-Karten verfügen teils über drei Oldschool-8-Pol-Buchsen - das ist fett und hässlich.
MfG
Raff
Nun, man könnte neue Stecker designen wo nur noch die benötigten Leitungen vorhanden sind. Aber kleinere Durchmesser der einzelnen Adern wäre nicht gut. Da hat die Physik + praxis was dagegen. Weniger Gesamtverbrauch wäre vielleicht mal angebracht als durch immer kleinere Leitungen immer mehr zu jagen.
dargo
2025-08-24, 09:58:10
Hat hier jemand Erfahrungen mit HDR-Videos auf Youtube hochzuladen damit auch bei YT später die HDR-Option vorhanden ist? Ich habe mit folgenden Settings das Video mit OBS aufgenommen.
93974
Die Farben sehen in meinem aufgenommen Video bei der Wiedergabe am Desktop (HDR On) korrekt bzw. 1:1 aus so wie ich das auf dem QD-OLED mit HDR Ingame auch sehe. Lade ich das Video bei YT hoch sehen die Farben wieder falsch aus. Es wirkt alles etwas zu blass und die Highlights von HDR kommen gar nicht zu Geltung wie sie sollen. Die Option bei YT mit HDR fehlt dann auch komplett.
Edit:
Diesem Guide nach habe ich eigentlich alles korrekt gemacht oder übersehe ich was?
https://youtu.be/_lDPFjfkm1Q?si=t0HLtJ0AAbtDVlf4&t=1820
Hier noch die Daten von MediaInfo zum Video.
93975
Oder liegt es tatsächlich wirklich nur daran, dass YT bis zu paar Tagen braucht bis das HDR-Video im korrekten Format öffentlich zur Verfügung steht bzw. verarbeitet wurde? :freak:
dildo4u
2025-08-24, 10:52:37
Kein Plan ob es mittlerweile schneller oder langsamer geworden ist er spricht von 24 Stunden.
hhaEEruCQiI
dargo
2025-08-24, 11:03:28
Ja... habe das mit dem einen Tag aus dem von mir verlinkten Video schon mitbekommen. Soll aber auch von der Länge des Videos abhängen. Ich lass das HDR-Video jetzt mal auf YT und schaue ab morgen ob sich da was tut. Grandioser Speed von YT bzw. Google. Passt super zu einem Milliarden-Konzern. :uup:
Achill
2025-08-24, 12:02:37
Hat hier jemand Erfahrungen mit HDR-Videos auf Youtube hochzuladen damit auch bei YT später die HDR-Option vorhanden ist? Ich habe mit folgenden Settings das Video mit OBS aufgenommen.
93974
Die Farben sehen in meinem aufgenommen Video bei der Wiedergabe am Desktop (HDR On) korrekt bzw. 1:1 aus so wie ich das auf dem QD-OLED mit HDR Ingame auch sehe. Lade ich das Video bei YT hoch sehen die Farben wieder falsch aus. Es wirkt alles etwas zu blass und die Highlights von HDR kommen gar nicht zu Geltung wie sie sollen. Die Option bei YT mit HDR fehlt dann auch komplett.
Edit:
Diesem Guide nach habe ich eigentlich alles korrekt gemacht oder übersehe ich was?
https://youtu.be/_lDPFjfkm1Q?si=t0HLtJ0AAbtDVlf4&t=1820
Hier noch die Daten von MediaInfo zum Video.
93975
Oder liegt es tatsächlich wirklich nur daran, dass YT bis zu paar Tagen braucht bis das HDR-Video im korrekten Format öffentlich zur Verfügung steht bzw. verarbeitet wurde? :freak:
Ich habe damit keine Erfahrungen bisher gesammelt, bin nur noch immer erstaunt, dass es solch ein Pain ist. Ich hätte hier von Google einfach etwas Mitwirkung an OBS erwartet sodass dort passende Profile hinterlegt sind, oder eine Info nach dem Upload ... ggf. danach schon mal gesucht, ob Google / YT dies irgendwo anbietet?
Zur Frage, im Video an der von dir verlinkten Stelle wird gesagt, es im Main10 Encoding Format zu exportieren. In den MetaInfo Daten steht bei dir aber Main@L5.1 ... evtl. ist dies aber auch etwas anderes.
dargo
2025-08-24, 12:09:05
Ich muss mich da auch erstmal reinfuchsen, HDR-Upload auf YT ist Neuland für mich. :)
btw.
Profil main10 finde ich in OBS überhaupt nicht, nur main.
dmsephiroth
2025-08-25, 02:01:22
Ahoi!
Ich habe mir nun endlich einen neuen Rechner gegönnt und versuche mich noch für eine GPU zu entscheiden: Rechner= Ryzen 7800x3d, 32 gb DDR 5-6000 CL 30 Ram usw.
Ich denke eine 5070 hätte zu wenig Vram, also würde bei angedachter WQHD Auflösung wohl eher die 5070ti oder 9070xt Sinn machen.
Zu welcher Custom Karte würdet ihr bzgl. der 9070xt raten?
Hatte bisher die XFX Mercury Gaming OC Rgb angepeilt. Gibt es da Erfahrungsberichte?
Powercolor Hellhound ist meine Empfehlung.
dargo
2025-08-25, 08:08:15
Meine auch. :)
Jup,
ich behaupte mal das der Foren Konsens die Hellhound ist im Bezug auf Luftkühler und out of the box use.
also (y) Für die Hellhound.
dargo
2025-08-25, 11:56:39
@dmsephiroth
Muss es unbedingt eine 9070 XT sein? Du bist ja nur mit 1440p unterwegs. Da würde ich dir auch das hier uneingeschränkt empfehlen.
https://www.amazon.de/dp/B0DRPSF34T?linkCode=xm2&camp=2025&creative=165953&smid=A3JWKAKR8XB7XF&creativeASIN=B0DRPSF34T&tag=geizhalspre03-21&language=de_DE
Du kannst nahezu alles mit FSR 4 Quality (960p Input) spielen. Das ist Kindergeburtstag für diese Karte. Und sie ist auch von Haus aus super effizient mit dem deutlich besser gewählten Betriebspunkt.
dmsephiroth
2025-08-25, 14:22:09
@dmsephiroth
Muss es unbedingt eine 9070 XT sein? Du bist ja nur mit 1440p unterwegs. Da würde ich dir auch das hier uneingeschränkt empfehlen.
https://www.amazon.de/dp/B0DRPSF34T?linkCode=xm2&camp=2025&creative=165953&smid=A3JWKAKR8XB7XF&creativeASIN=B0DRPSF34T&tag=geizhalspre03-21&language=de_DE
Du kannst nahezu alles mit FSR 4 Quality (960p Input) spielen. Das ist Kindergeburtstag für diese Karte. Und sie ist auch von Haus aus super effizient mit dem deutlich besser gewählten Betriebspunkt.
Jepp sollte es schon^^
Dennoch danke Dir + den Anderen.
Die XFX Mercury kann niemand empfehlen?
Hakim
2025-08-25, 14:40:35
hatte hier glaub ich niemand, war auch kurz davor die mal zu holen (die OC Version da hier besserer Kühler), die war mal kurz für 650€ gelistet wo ich am überlegen war.
Edit: Bild hinzugefügt warum OC Version
dargo
2025-08-25, 14:51:02
Wie man eindrucksvoll bei einer Hellhound XT sehen kann ist eine Vapor Chamber überhaupt nicht notwendig bei N48XT. Vielleicht wenn man die auf fast 400W hochjagen will. Aber da habe ich große Zweifel, dass ne Mercury OC dann auch noch leise ist. Bei solchen Wattagen empfiehlt sich eh nur noch Wasser. Zumindest bei der Energiedichte auf einem 357mm² Chip. Luft ist da einfach am Ende, außer man ist schwerhörig.
Edit:
@Achill
Das mit dem HDR-Video passt bei YT. Die brauchen tatsächlich ca. einen ganzen Tag dafür. :freak: Aber immerhin kann ich HDR-Videos uploaden. :up:
rxdGDG8wQw4
dmsephiroth
2025-08-25, 16:18:34
Wie wäre die Sapphire Pure 9070xt?
Hat die jemand und kann davon berichten?
Ich weiss nur das Sapphire und Powercolor leider keine Endkundengarantie bieten. Anders als XFX und Asus z.B.
Hakim
2025-08-25, 16:42:52
hier ist eine Roundup mit einigen Modellen, aber die Tests widersprechen sich teilweise, also nicht stur drauf vertrauen. Aber so als grober Überblick
https://www.techspot.com/review/3015-amd-radeon-9070-xt-roundup/
Langlay
2025-08-25, 17:02:04
https://www.techspot.com/review/3015-amd-radeon-9070-xt-roundup/
Die Nitro+ ist in dem Test dort die schwerste 9070XT und ich hab mich beim einbauen noch gewundert das die Karte leichter ist als sie aussieht. Bin scheinbar doch irgendwie die schweren Nvidia Ziegelsteine gewohnt.
Hakim
2025-08-25, 17:09:03
1,9 Kg ist doch schon heftig, ich würde bei knapp 2Kg nicht mehr von "leichter" sprechen :). Aber was hattest du den für Ochis bisher wenn dir 2Kg leicht vorkommt?
Spring
2025-08-25, 17:30:41
Jepp sollte es schon^^
Dennoch danke Dir + den Anderen.
Die XFX Mercury kann niemand empfehlen?
Die Karte ist super (XFX Mercury Gaming OC), schon seit 5 Monaten im Einsatz. Sehr leise mit nur 620 rpm im Idle und unter Last + PT plus selten über 1350 rpm (selbst im Sommer), mit PT- praktisch nie über 1000 rpm. Qualitativ schönes Stück.
Von OC mit 363W bis PT-30% alles möglich, hat mehr Bumms als die Hellhound plus Vaporchamber. Wenn Du nur UV oder Standard laufen lassen willst, dann reicht eine normale Pulse oder Standard Hellhound.
Langlay
2025-08-25, 17:38:07
1,9 Kg ist doch schon heftig, ich würde bei knapp 2Kg nicht mehr von "leichter" sprechen :). Aber was hattest du den für Ochis bisher wenn dir 2Kg leicht vorkommt?
4080FE, 4090 FE (jeweils 2,2KG) und 5090 Astral (3KG)
Und ich hab die 5090 Astral halt gegen die 9070XT ausgetauscht also war das wahrscheinlich das was meine Wahrnehmung "geeicht" hat.
dmsephiroth
2025-08-25, 17:45:33
Die Karte ist super (XFX Mercury Gaming OC), schon seit 5 Monaten im Einsatz. Sehr leise mit nur 620 rpm im Idle und unter Last + PT plus selten über 1350 rpm (selbst im Sommer), mit PT- praktisch nie über 1000 rpm. Qualitativ schönes Stück.
Von OC mit 363W bis PT-30% alles möglich, hat mehr Bumms als die Hellhound plus Vaporchamber. Wenn Du nur UV oder Standard laufen lassen willst, dann reicht eine normale Pulse oder Standard Hellhound.
Wie laut ist die XFX Mercury wenn man die Lüfterkurve gut einstellt und UV bitte?
Danke schon mal für die Antwort!
dmsephiroth
2025-08-25, 17:47:05
hier ist eine Roundup mit einigen Modellen, aber die Tests widersprechen sich teilweise, also nicht stur drauf vertrauen. Aber so als grober Überblick
https://www.techspot.com/review/3015-amd-radeon-9070-xt-roundup/
Danke hab schon div. Reviews gelesen, aber wollt es lieber von Leuten hören, die die GPUs auch selbst gekauft+getestet haben.
Ansonsten finde ich dieses Review div. Custom Modelle besser:
https://www.computerbase.de/artikel/grafikkarten/radeon-rx-9070-xt-custom-design-test.91523/
Spring
2025-08-25, 17:54:05
@dmsephiroth
für mich unhörbar mit 620 rpm, sehr leise mit 1000 rpm und selbst mit 1350 rpm nicht störend (die XFX Merc 319 6950XT war klar lauter), aber das ist ja subjektiv.
Im Sommer hatte ich mal testweise bis zu 37% Lüfterspeed, unter Last 25-30% sind ausreichend (wahrscheinlich sogar teilweise zu viel) bei hohen Raumtemperaturen (26-28°C). Min Speed sind 15% mit eben 620 rpm.
EDIT: wie bei der Nitro+ ist die original Lüfterkurve Mist und geht auf 100% hoch (über 4000 rpm :ugly:). Aber das lässt sich ja mit wenigen Klicks beheben.
Langlay
2025-08-25, 17:57:06
Ich hab die Nitro+ (ich wollte speziell eine Karte mit 12VHPWR) und bin soweit zufrieden. Die Orginallüfterkurve ist allerdings nicht so geil. Ich betreibe die Karte mit UV bei 280W Powerlimit & 2800MHz VRAM und angepasster Lüfterkurve auf ~1000RPM unter Last das macht dann ~60°C Core, 70-75°C Hotspot & Memory. Ich hab aber Samsung Ram Hynix soll wohl heisser laufen.
w0mbat
2025-08-25, 18:39:41
Der SKHynix GDDR6-Speicher hat niedrigere Timings und ist ca. 2-3% schneller, wird dadurch aber auch etwas wärmer.
dargo
2025-08-25, 19:03:34
Etwas wärmer ist gut. :tongue:
Mich würde mal interessieren mit welcher Spannung der Hynix bei Last läuft? Bei Samsung sind es 1250mV in Idle und 1350mV bei Last.
https://i.postimg.cc/WqpFq80q/A-Plague-Tale-Requiem-2025-08-25-19-00.jpg (https://postimg.cc/WqpFq80q)
Irgendwoher muss ja die deutlich höhere Wärme bei Hynix herkommen. Von schärferen Timings eher nicht.
Hakim
2025-08-25, 19:05:08
Ja aber es ist doch so das nicht ein Modell explizit nur eine bestimmten Ram nutzt oder nicht? Von dem was ich beobachten konnte, evtl liege ich hier falsch, werden beide Rams für alle Modelle genutzt, daher kann man hier nicht drauf vertrauen das Karte A bei einem Test mit Skyhnix getestet wurde und davon ausgehen das die Bestellung damit ausgeliefert wird.
dargo
2025-08-25, 19:12:23
@Hakim
Für mich sieht es so aus als wenn gar kein N48 mehr (eventuell schon etwas länger) mit Hynix produziert wird. Womöglich gab es bei den ersten Chargen Lieferschwierigkeiten bei Samsung und deshalb musste AMD auf Hynix ausweichen. Reine Speku von mir allerdings. Möglicherweise liege ich mit dieser Vermutung komplett falsch und es laufen weiterhin zum Teil N48 mit Hynix vom Band.
Der_Korken
2025-08-25, 19:28:05
Etwas wärmer ist gut. :tongue:
Mich würde mal interessieren mit welcher Spannung der Hynix bei Last läuft? Bei Samsung sind es 1250mV in Idle und 1350mV bei Last.
Bei Hynix auch.
dargo
2025-08-25, 19:40:32
Dann weiß ich auch nicht mehr warum ein Hynix so viel wärmer wird. Oder bei Samsung sitzen die Sensoren nicht am heißesten Punkt. :freak:
dmsephiroth
2025-08-25, 23:40:20
@dmsephiroth
für mich unhörbar mit 620 rpm, sehr leise mit 1000 rpm und selbst mit 1350 rpm nicht störend (die XFX Merc 319 6950XT war klar lauter), aber das ist ja subjektiv.
Im Sommer hatte ich mal testweise bis zu 37% Lüfterspeed, unter Last 25-30% sind ausreichend (wahrscheinlich sogar teilweise zu viel) bei hohen Raumtemperaturen (26-28°C). Min Speed sind 15% mit eben 620 rpm.
EDIT: wie bei der Nitro+ ist die original Lüfterkurve Mist und geht auf 100% hoch (über 4000 rpm :ugly:). Aber das lässt sich ja mit wenigen Klicks beheben.
Danke Dir!
Wie performt die Karte bei RT oder sogar PT?
Ich hab die Nitro+ (ich wollte speziell eine Karte mit 12VHPWR) und bin soweit zufrieden. Die Orginallüfterkurve ist allerdings nicht so geil. Ich betreibe die Karte mit UV bei 280W Powerlimit & 2800MHz VRAM und angepasster Lüfterkurve auf ~1000RPM unter Last das macht dann ~60°C Core, 70-75°C Hotspot & Memory. Ich hab aber Samsung Ram Hynix soll wohl heisser laufen.
Ebenso Danke an Dich =)
Gleiche Frage an Dich: Wie performt die Karte bei RT+ PT so bei WQHD? :)
Langlay
2025-08-26, 00:35:07
Gleiche Frage an Dich: Wie performt die Karte bei RT+ PT so bei WQHD? :)
Da bin ich glaub ich der falsche Ansprechpartner(weil Wohlstandsverwahrlost) dafür. Ich spiele in UWQHD (3440x1440p) und imo ist für alles was über leichtes RT hinhaus geht, die 9070XT die falsche Karte und PT kannste knicken. Aber ich komme von der 4090/5090 und wenn ich ein RT/PT Spiel spielen wollen würde, würde ich es auf der 5090 machen. Daher meine Aussage vielleicht mit einem Körnchen Salz konsumieren.
dargo
2025-08-26, 06:19:52
Wie performt die Karte bei RT oder sogar PT?
Wie jede andere Performancekarte für ~550-650€ auch. Leichtere RT-Kost kein Problem, schwerere wird dann langsam schwierig. PT-Kost ist in der Regel zu teuer für dieses Segment. Wobei sich solche Fragen nicht pauschal beantworten lassen. Jeder hat eine andere Vorstellung wieviel fps er braucht. Auch die Pixellast ist bei jedem unterschiedlich. Du mit deinen 960p bei Quality Upscaling hast noch eine recht kleine Pixellast. Ich zb. bevorzuge bei meinem 4k Screen 1270p-1440p als Input bei FSR 4. Da macht sich eine RT/PT Frametime schon deutlich stärker bemerkbar.
[MK2]Mythos
2025-08-26, 17:52:22
OT gelöscht. Hier gehts um die RX9070 und nicht um Computergehäuse.
horn 12
2025-08-26, 19:30:12
ok
sorry!
dargo
2025-08-26, 21:00:02
Um auf das Thema der Lüfter bei der Hellhound XT zurück zu kommen welches ich anfangs angeritzt hatte. Habt ihr euch eure Lüfter mal genauer vor dem Einbau angeschaut? Mich hatte die etwas schlampige Fertigungstoleranz von Powercolor (möglicherweise nur einzelne Charge(n) betroffen) bissel gewundert.
93991 93992
Im zweiten Bild ist die leicht überstehende Kante vom Lüfter leider nicht scharf auf dem Bild erfasst. Ich habs jetzt nicht gemessen aber grob würde ich schätzen, dass der Ring an mancher Stelle ca. 1mm über steht. Auf der anderen Seite dann entsprechend minimal tiefer.
nVIDIA
2025-08-26, 22:15:54
Um auf das Thema der Lüfter bei der Hellhound XT zurück zu kommen welches ich anfangs angeritzt hatte. Habt ihr euch eure Lüfter mal genauer vor dem Einbau angeschaut? Mich hatte die etwas schlampige Fertigungstoleranz von Powercolor (möglicherweise nur einzelne Charge(n) betroffen) bissel gewundert.
93991 93992
Im zweiten Bild ist die leicht überstehende Kante vom Lüfter leider nicht scharf auf dem Bild erfasst. Ich habs jetzt nicht gemessen aber grob würde ich schätzen, dass der Ring an mancher Stelle ca. 1mm über steht. Auf der anderen Seite dann entsprechend minimal tiefer.
Was soll man denn noch erwarten? Es wird doch seit einigen GPU Generationen mittlerweile an den Lüftern gespart. Es sind meistens billige PWM Lüfter mit Kugellagern. Die schleifen, machen Rattergeräusche beim anlaufen (auf Gigabyte schiel) sind sehr dünn vom Kunststoff her gefertigt und fangen an, ab bestimmten Drehzahlen Resonanzen zu erzeugen, ergo laut. Ich denke nicht das du mit einer RMA, falls das Überlegt ist, eine bessere Karte bekommen wirst.
Lüfterrahmen runter und zwei 120mm Lüfter drauf. Was besseres kann man einer Grafikkarte nicht spendieren.
Freestaler
2025-08-26, 22:19:02
Hab nun ne RedDevil OC XT. In Games (deltaForce, CS, WZ) ist sie wirklich sehr leise immer max 900RPM. Im 3Dmark "singt" sie leider mit den Spulen leicht mit. Und das ganze im OC Profil mit -350/-75/-7. Mal schauen wie es im silent wird.
dargo
2025-08-27, 06:17:27
Was soll man denn noch erwarten? Es wird doch seit einigen GPU Generationen mittlerweile an den Lüftern gespart. Es sind meistens billige PWM Lüfter mit Kugellagern. Die schleifen, machen Rattergeräusche beim anlaufen (auf Gigabyte schiel) sind sehr dünn vom Kunststoff her gefertigt und fangen an, ab bestimmten Drehzahlen Resonanzen zu erzeugen, ergo laut. Ich denke nicht das du mit einer RMA, falls das Überlegt ist, eine bessere Karte bekommen wirst.
Lüfterrahmen runter und zwei 120mm Lüfter drauf. Was besseres kann man einer Grafikkarte nicht spendieren.
Wer spricht denn hier gleich von einer RMA? :) Die Lüfter laufen super sauber (zumindest bis 1100RPM, mehr nicht getestet weil ich nicht mehr brauche), Kühlleistung überzeugt auf ganzer Linie. Da gibt es aus dieser Richtung nichts zu bemängeln. Mich hatte das nur gewundert weil ich sowas noch nie angetroffen hatte. Selbst bei einer XFX Swift XT war alles sauber bei den Lüftern verarbeitet (hier stand kein Ring über der Kante), dort hatte dann leider die Kühlperformance mich nicht ganz überzeugt.
dmsephiroth
2025-08-27, 07:19:37
Wie jede andere Performancekarte für ~550-650€ auch. Leichtere RT-Kost kein Problem, schwerere wird dann langsam schwierig. PT-Kost ist in der Regel zu teuer für dieses Segment. Wobei sich solche Fragen nicht pauschal beantworten lassen. Jeder hat eine andere Vorstellung wieviel fps er braucht. Auch die Pixellast ist bei jedem unterschiedlich. Du mit deinen 960p bei Quality Upscaling hast noch eine recht kleine Pixellast. Ich zb. bevorzuge bei meinem 4k Screen 1270p-1440p als Input bei FSR 4. Da macht sich eine RT/PT Frametime schon deutlich stärker bemerkbar.
Wäre interessant inwiefern sich FSR Redstone +soon+ dann vs Nvidia Kram schlägt.
Aber hab noch nicht gelesen WANN das denn veröffentlicht wird.
horn 12
2025-08-27, 07:58:18
September Treiber!
dargo
2025-08-27, 08:45:33
Horni immer mit seinem Optimismus. :tongue:
@dmsephiroth
Ende 2025 vermutlich.
horn 12
2025-08-27, 08:57:32
Dies hies es ja vor etlichen Tagen bei Videocardz
Tigershark
2025-08-27, 13:39:59
Um auf das Thema der Lüfter bei der Hellhound XT zurück zu kommen welches ich anfangs angeritzt hatte. Habt ihr euch eure Lüfter mal genauer vor dem Einbau angeschaut? Mich hatte die etwas schlampige Fertigungstoleranz von Powercolor (möglicherweise nur einzelne Charge(n) betroffen) bissel gewundert.
93991 93992
Im zweiten Bild ist die leicht überstehende Kante vom Lüfter leider nicht scharf auf dem Bild erfasst. Ich habs jetzt nicht gemessen aber grob würde ich schätzen, dass der Ring an mancher Stelle ca. 1mm über steht. Auf der anderen Seite dann entsprechend minimal tiefer.
Hm. Vielleicht hat sich deswegen der Erstkäufer Deiner Karte entschieden, diese zu retournieren? Wenn es nur ein optisches Ding ist aber funktional keinen Unterschied macht, bspw. durch ungeplante Luftschlitze, die den Luftstrom negativ beeinflussen (bei der von Dir gemessenen, sehr guten Kühlperformance ja eher unwahrscheinlich), finde ich es akzeptabel. Nicht gut, weil es sicher besser geht (für mehr Kosten bei der Herstellung), aber auch nicht katastrophal.
dargo
2025-08-27, 14:41:17
Hm. Vielleicht hat sich deswegen der Erstkäufer Deiner Karte entschieden, diese zu retournieren?
Nur deswegen? Das wäre wirklich dumm. Ich hätte es natürlich verstanden wenn die Lüfter komische Geräusche deshalb von sich geben würden. Aber nur wegen der Optik? Die eh nur jemandem auffällt der genauer hinsieht? Wäre zumindest etwas strange.
dmsephiroth
2025-08-28, 02:18:28
Bei welcher Mindestdrehzahl starten die Lüfter der hier beliebten 9070xt Modelle?
Hab bzgl. Powercolor nur etwas zum 9070 Modell ohne XT gefunden:
https://www.techpowerup.com/review/powercolor-radeon-rx-9070-hellhound/39.html
Sprich: 600rpm start bis hoch auf 904 RPM unter Volllast.
Zur Sapphire Pulse:
https://www.techpowerup.com/review/sapphire-radeon-rx-9070-xt-pulse/39.html
Start ebenso ca. 600rpm, aber dann bis zu 1302 RPM unter Volllast.
Mercury Gaming OC RGB Magnetic Air:
https://www.techpowerup.com/review/xfx-radeon-rx-9070-xt-mercury-oc-magnetic-air/39.html
Ebenso Start bei ca. 600 RPM aber dann hoch bis 1589 RPM.
Ich vermute bei den Karten wurde nicht in Betracht gezogen zu undervolten oder die Lüfterkurve einzustellen?
Wäre interessant ob es da Daten bzgl. anderer zu empfehlender GPUs gibt.
dargo
2025-08-28, 04:36:35
Hellhound XT = min. ~800RPM
Pulse XT = min. ~735RPM
dmsephiroth
2025-08-28, 17:53:20
Danke schonmal :)
horn 12
2025-08-28, 18:44:40
Lass dich nicht wie Dargo damals abschrecken
die 800, eher gar knapp 850 U/min sind selbst im Idle, Surfen ecc.
nicht hörbar, wie damals schon mehrfach bekräftigt wurde, Gell @Dargo
dargo
2025-08-28, 19:27:25
Falsch... sowas lässt sich nicht pauschalisieren. Hast du ein schweizer Käse beim Gehäuse würde ich nicht dafür garantieren die ~800RPM wären unhörbar. Steht der schweizer Käse sogar noch extrem nah am User (zb. auf dem Schreibtisch) ist die Wahrscheinlichkeit nochmal größer, dass diese RPM leicht hörbar sind. Korken hört diese RPM zum Bleistift.
Ich hätte hier noch einen kleinen Tipp für die Leute mit OC Modellen bei denen die 9070 XT einfach mal crashed mit einem driver timeout.
Meine Red Devil hat stumpf den Boosttakt teilweise auf 3,4 Ghz+ angehoben, über 3,3 Ghz ist sie regelmäßig irgendwann innerhalb von 5-10 Minuten gecrashed bei den Engines wo sie bis ultimo Takten kann. (z.b. UE5 mafia the old country, Space Marine II)
Die Lösung ist bei mir den Maximalen Offset im Treiber auf -100Mhz zu stellen, womit sie nicht über 3,3 Ghz geht.
Bei Mafia the old country kann man das ganz gut sehen, die Karte zieht nur 270W von möglichen 365W bei 3,3 GHZ mit 80% Gpu load und Läuft konstant mit 3,3 Ghz.
Hat leider echt gedauert bis ich darauf gekommen bin das sie so hoch taktet das sie abstürzt, da es nur in Spielen passiert wo sie spiele-engine bedingt so hoch Takten kann.
Ich dachte erst die Karte wäre defekt^^
Leider hat sie diese verhalten bereits im Standard OC Bios ohne Treiber Tweaks kombiniert mitt meinem 9800 X3D, könnte mir vorstellen das es bei dem einen oder anderen auch so auftreten könnte.
Lurtz
2025-08-30, 15:23:54
Die ist @default so sehr übertaktet, dass sie crasht?
dildo4u
2025-08-30, 15:28:02
Sapphie Garantiert nur 3.06Ghz kein Plan wie das getestet wird kann aber auch sein das sein Chip einfach eine Gurke ist.
Hakim
2025-08-30, 15:30:20
Vermutlich Undervoltet womit mehr Spielraum für den Takt noch oben frei wird, das geht halt nicht immer gut, daher Minus Takt Offset oder alternativ PT entsprechend begrenzen das der Takt gar nicht so hoch geht.
Freestaler
2025-08-30, 15:33:53
@skar mit Defaultsettings bereits gecrasht? Oder war dies bereits mit UV?
Bei mir ja.
Laut Webseite soll der Boosttakt 3060 Mhz betragen, das sagt auch GPU-Z.
Mafia the old Country war das erste Spiel welches bei mir mit FSR gecrasht ist,
darauf hin habe ich mir das ganze angeschaut, und eben speziell bei UE5 spielen dieses Massive übertakten beobachte, mit GPU-Z und HW-info.
bei anderne Spielen wie z.b. Cyberpunk taktet die Karte nur auf 3,1 z.b. womit es halt stundenlang stabil lief.
Selbst Treiber mit DDU entfernen und neu installieren haben bei Default Einstellungen mit dem OC Bios das selbe Problem produziert.
Also ja, bei mir taktet die Karte anscheinend im OC Bios insbesondere bei UE5 zu hoch und stürzt ab. mit dem Silent Bios tut sie es allerdings nicht.
Ich hatte mal in Reddit geschaut, anscheinend hatten auch andere das selbe Problem mit anderen Modellen den RX 9070 XT.
Von daher dachte ich es könnte eventuell für die Interessant sein bei denen diese spezielle Verhalten auch auftritt.
Es mag eventuell auch an der Wasserkühlung liegen, da die Karte nicht in ein Thermische Limit laufen kann.
@skar mit Defaultsettings bereits gecrasht? Oder war dies bereits mit UV?
mit UV instant crash, mit default Profil wenn sie den Peak auf über 3,3 Ghz hat.
mit -105 Mhz Offset geht sie nicht mehr über 3,3 GHZ und läuft in so gut wie allen Spielen permanent mit 3,3 Ghz, bei Cyberpunk sind es nur 3,2 GHZ :-)
aktuelle Treiber Einstellung siehe Anhang.
Sapphie Garantiert nur 3.06Ghz kein Plan wie das getestet wird kann aber auch sein das sein Chip einfach eine Gurke ist.
Na ja läuft ja stabil mit 3,3 GHZ, finde nicht das es eine Gurke ist
Freestaler
2025-08-30, 17:20:33
Und der Takt als AVG mit GPU-Z geprüft? Bei mir pendet der sich ein um die 2950 mit -350,-75,-12
dargo
2025-08-30, 18:06:21
Sapphie Garantiert nur 3.06Ghz kein Plan wie das getestet wird kann aber auch sein das sein Chip einfach eine Gurke ist.
So ein Unsinn... jeder N48 XT boostet höher wenn er kann. Sprich... die Applikation lässt es zu (wenig Heizlast/Pixellast, CPU-Limit etc.), das Powertarget ebenfalls. Schluss ist theoretisch bei 3450Mhz wenn Power nicht limitiert.
Also ja, bei mir taktet die Karte anscheinend im OC Bios insbesondere bei UE5 zu hoch und stürzt ab. mit dem Silent Bios tut sie es allerdings nicht.
Das ergibt keinen Sinn. Es sei denn das Silent-Bios hat weniger Powertarget, dann natürlich logisch der höhere Boost. Allerdings sollte da nichts crashen bei der Stock V/F-Kurve.
dildo4u
2025-08-31, 07:18:55
Hängt vermutlich massiv vom Game ab BF6 scheint im dem Takt Bereich und TDP erreicht weit über 300Watt?
gvE_EZIYjDk
dargo
2025-08-31, 07:31:04
Warum das Fragezeichen jetzt? :freak: Kann es sein, dass du immer noch nicht verstanden hast wie eine V/F-Kurve funktioniert? Und was soll jetzt so ungewöhnlich an >300W sein? Ich kann meiner Hellhount XT auch erlauben bis zu 349W zu nuckeln. Mache ich aber nicht weil es aus Effizienzsicht (thermisch bei Lukü sowieso) vollkommen bescheuert ist. Boostfreqeunzen sind nichts anderes als das Ergebnis aus einer vordefinierten V/F-Kurve, dem als maximal vordefinierten Boost (N48 = 3450Mhz) und dem max. zulässigen Powertarget! Da es unterschiedliche Gaminglasten gibt variieren entsprechend die Boostfrequenzen. Ich erlaube bsw. meiner Karte max. 261W und max. 2950Mhz, real sind es ~2880Mhz. Dadurch verbraucht die Karte in einem TLOU1 auch öfter mal 220-230W. Nichts anderes macht Nvidia bei Blackwell bsw. auch. Deutlich weniger max. Boost @Stock erlauben als AMD. Dadurch laufen die SKUs öfter ins Taktlimit und erreichen nicht ihr max. vordefiniertes Powertarget, je nach Gaminglast halt.
Edit:
Hier ein schönes Beispiel aus TLOU1.
4k + FSR 4.0.2 Quality
https://i.postimg.cc/JtSYvnXx/The-Last-of-Us-Part-I-2025-08-31-08-13.jpg (https://postimg.cc/JtSYvnXx)
4k + FSR 4.0.2 Performance
https://i.postimg.cc/fVfHVfrq/The-Last-of-Us-Part-I-2025-08-31-08-13-1.jpg (https://postimg.cc/fVfHVfrq)
Was man hier auch schön sieht... das was ich bei der Graka durch die geringere Pixellast @Performance Upscaling einspare geht beinah 1:1 in den Verbrauch der CPU. Logisch... mit weniger Pixellast muss die CPU wieder mehr ackern.
dildo4u
2025-08-31, 07:36:01
Ich dachte die sind bei ca 300Watt limitiert wegen 2x8 Pin aber da kommt ja noch was über den PCI-E Slot.
dargo
2025-08-31, 07:47:19
Dann dachtest du falsch. Viele Hersteller halten sich nicht an dieses Limit weil die bewährten Stecker 90% Reserve haben und nicht 10% wie dieser missglückte 12VHPWR. Ich hatte schon öfter gesagt, dass selbst die Powercolor Hellhound RX 7900XTX mit nur zwei 8-Pin Steckern ausgeliefert wurde obwohl bis zu 400W bei dieser Karte möglich waren.
Mr.Ice
2025-08-31, 14:29:38
Ich bin am überlegen von 7900XT auf 9070XT upzugraden.
Lohnt sich das denn überhaupt ?
Naja irgendwo würde ich schon gerne FSR4 Nutzen in Games und auch das Redstone update klingt sehr reizvoll aber mit meiner 7900XT schau ich halt in die Röhre...
dargo
2025-08-31, 15:39:32
Das musst du schon selbst entscheiden ob es sich hauptsächlich wegen FSR 4 für dich lohnt. :) Vermutlich schon weil sich der Aufpreis bei dir in Grenzen halten dürfte.
btw.
Ich habe jetzt aus reiner Neugier geschaut wie sich der Hellhound XT Kühler nach langem daddeln mit max. 1.000RPM schlägt. Der Kühler ist einfach unglaublich. :O
https://i.postimg.cc/Whct26mF/The-Last-of-Us-Part-I-2025-08-31-15-32.jpg (https://postimg.cc/Whct26mF)
Hier werden zwar gerade nicht die vollen 261W ausgeschöpft, dann lasst es halt 2-3°C mehr sein. Immer noch eine wahnsinnige Kühlperformance. :eek: Und das ist bei 24,8°C Zimmertemperatur.
Ich bin am überlegen von 7900XT auf 9070XT upzugraden.
Lohnt sich das denn überhaupt ?
Naja irgendwo würde ich schon gerne FSR4 Nutzen in Games und auch das Redstone update klingt sehr reizvoll aber mit meiner 7900XT schau ich halt in die Röhre...
Den Schritt hatte ich gemacht, von einer 7900 XT MBA mit Wasserblock zur 9070 XT mit Wasserblock.
Ich würd es als als Sidegrate mit leichtem plus bescheiben.
die Rasterleistung ist grob über den Daumen gepeilt 5-10% besser im Mittel, kommt immer auf die benutzte Engine an.
Hinweis: meine 7900 XT hatte nur leichtes UV und OC vertragen, die 9070XT lasse ich Momentan mit 3,3 GHZ laufen, der Unterschied bei Stock vs Stock ist eventuell etwas kleiner.
Als Total War und Strategiespiele Fanatic nutze ich fast nur die Native Auflösung von 3440x 1440, dort ist Karte gut aufgehoben und ist etwas performanter als die 7900 XT.
Bei zwei Spielen hatte ich bisher mit Gpu-z eine Speicherbelegung von knapp unter 15 GB,
die 16 GB machen mir da etwas Kopfschmerzen und für größere Auflösungen würde ich die Karte aus dem Bauch heraus nicht nehmen, das Monitor Upgrade auf den 5K/2K habe ich erstmal auf die next Gen geschoben.
Raytracing ist deutlich performanter als bei der 7900 XT und FSR 4 sieht erstaunlich gut aus bei den beide Spielen wo ich mir es angeschaut habe,sprich SpaceMarine II und Cyberpunk.
FSR 2/3 auf der 7900XT sah wirklich furchtbar aus, bin aber immer noch kein Freund vom Upscaling, zumindest nicht mit dem Monitior den ich aktuell nutze.
Alles in allem bin ich sehr zufrieden mit dem Sidegrate und halte es für mich Persönlich für die richtige Entscheidung.
die 9070 XT fühlt sich irgendwie runder an als die 7900 XT
dargo
2025-09-02, 07:39:49
Hier noch ein HDR-Video von mir in TLOU1 mit der Hellhound XT.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13806063&postcount=852
Ich liebe diese Serie einfach nur. :massa:
Mr.Ice
2025-09-02, 18:54:35
Den Schritt hatte ich gemacht, von einer 7900 XT MBA mit Wasserblock zur 9070 XT mit Wasserblock.
Ich würd es als als Sidegrate mit leichtem plus bescheiben.
die Rasterleistung ist grob über den Daumen gepeilt 5-10% besser im Mittel, kommt immer auf die benutzte Engine an.
Hinweis: meine 7900 XT hatte nur leichtes UV und OC vertragen, die 9070XT lasse ich Momentan mit 3,3 GHZ laufen, der Unterschied bei Stock vs Stock ist eventuell etwas kleiner.
Als Total War und Strategiespiele Fanatic nutze ich fast nur die Native Auflösung von 3440x 1440, dort ist Karte gut aufgehoben und ist etwas performanter als die 7900 XT.
Bei zwei Spielen hatte ich bisher mit Gpu-z eine Speicherbelegung von knapp unter 15 GB,
die 16 GB machen mir da etwas Kopfschmerzen und für größere Auflösungen würde ich die Karte aus dem Bauch heraus nicht nehmen, das Monitor Upgrade auf den 5K/2K habe ich erstmal auf die next Gen geschoben.
Raytracing ist deutlich performanter als bei der 7900 XT und FSR 4 sieht erstaunlich gut aus bei den beide Spielen wo ich mir es angeschaut habe,sprich SpaceMarine II und Cyberpunk.
FSR 2/3 auf der 7900XT sah wirklich furchtbar aus, bin aber immer noch kein Freund vom Upscaling, zumindest nicht mit dem Monitior den ich aktuell nutze.
Alles in allem bin ich sehr zufrieden mit dem Sidegrate und halte es für mich Persönlich für die richtige Entscheidung.
die 9070 XT fühlt sich irgendwie runder an als die 7900 XT
Okay alles klar dann mal vielen Dank!
Ja das ist auch so einer der Gründe (Cyperpunk) würde es gerne nochmal spielen und auch das Addon aber ja mit einer RDNA3 Grafikkarte Nein Danke...
mit der 9070XT wäre es ein Versuch wert da scheint die Perfomance mit RT auf 3440*1440 Okay zu sein!
OgrEGT
2025-09-02, 20:21:14
Okay alles klar dann mal vielen Dank!
Ja das ist auch so einer der Gründe (Cyperpunk) würde es gerne nochmal spielen und auch das Addon aber ja mit einer RDNA3 Grafikkarte Nein Danke...
mit der 9070XT wäre es ein Versuch wert da scheint die Perfomance mit RT auf 3440*1440 Okay zu sein!
Oder du bleibst standhaft und wartest auf RDNA5/UDNA... Dann gibt es noch ordentlich Leistung dazu...(habe auch ne 7900XT...)
Ratchet & Clank möcht ich bspw mit FSR4/Redstone spielen:) CP77 und AW2 natürlich auch :D
Achja auf dem neuen OLED in 5120x1440 :D
dargo
2025-09-02, 20:49:35
Was willst du denn mit AW2? Das ist doch völlig kaputt mit Radeon seit einer halben Ewigkeit, Frametimes aus der Hölle. Und CP77 sieht mit FSR4 auch nicht so überragend aus bezüglich Bildstabilität. Schon gar nicht auf einem 1440p Bildschirm wo der Input in der Regel noch kleiner ist als bei 2160p. Ich zb. finde die Bildstabilität in CP77 selbst mit 1440p Input @4k Output trotz 166ppi noch nicht ganz überzeugend. Was Redstone bezüglich besseres Upscaling (falls überhaupt) bringt muss sich erst zeigen.
OgrEGT
2025-09-02, 20:52:21
Was willst du denn mit AW2? Das ist doch völlig kaputt mit Radeon seit einer halben Ewigkeit, Frametimes aus der Hölle. Und CP77 sieht mit FSR4 auch nicht so überragend aus bezüglich Bildstabilität. Schon gar nicht auf einem 1440p Bildschirm wo der Input in der Regel noch kleiner ist als bei 2160p.
Deswegen auch RDNA5 :D
Mal schauen wie es damit und ggf Redstone lüppt...
dargo
2025-09-02, 20:55:27
Du weißt doch noch gar nicht ob RDNA5 spürbar beim Upscaling bezüglich BQ zulegt. Und mit RDNA5 soll die Bildausgabe aus heiterem Himmel plötzlich in AW2 wieder sauber sein? Ja, nee ist klar. Ich glaube eher diesen Titel hat AMD gar nicht mehr auf dem Schirm denn die Bildausgabe war ganz am Anfang noch sauber. Ab Treiber X war die dann völlig kaputt.
OgrEGT
2025-09-02, 20:58:04
Mit FSR3 will ichs jedenfalls nicht zocken :ugly:
dargo
2025-09-02, 20:59:07
Bei der mickrigen Auflösung verständlich. Ich fand zb. FSR3 in vielen Titeln gar nicht mal so schlecht wo ich auf den 27" 4k OLED umgestiegen bin. Am Sitzabstand hatte sich ja nichts bei mir geändert und somit profitierte schon die BQ dank 166ppi spürbar alleine durch diesen Wechsel bei FSR2/3 (FSR2 ist sogar oft stabiler).
OgrEGT
2025-09-02, 21:03:51
Bei der mickrigen Auflösung verständlich.
4K 8.3MPx
DQHD 7.4MPx
Mickrig ist was anderes...
Die Immersion bei 49" 1800R ist für mich supi
dargo
2025-09-02, 21:09:45
Du hast trotzdem nur 1440p in der Vertikalen und bleibst bei den mickrigen 109ppi. Ist nicht anderes wie ein 27 Zöller mit 1440p.
Ex3cut3r
2025-09-02, 21:53:36
Dargo mal wieder, immer am dicken Spielen. Beleidigt ständig nur andere User mit Schlagwörtern wie mickrig und co. Super Charakter. Richtig fein. :smile:
][immy
2025-09-02, 22:39:24
Du hast trotzdem nur 1440p in der Vertikalen und bleibst bei den mickrigen 109ppi. Ist nicht anderes wie ein 27 Zöller mit 1440p.
Bin mit 27" bei 4k unterwegs. Das ist eine schöne Pixeldichte für meine Adleraugen. Wobei 32" doch angemessen gewesen wäre (im Nachhinein), da in Windows ja alles mit der Auflösung skaliert. Die Skalierung von Windows selbst ist nicht so doll und funktioniert leider nicht durchgehend gleich. Hatte sogar schon manche Spiele die in 4k im Vollbild Fenstermodus zu groß für den Monitor waren mit 125% Skalierung.
Aber >32 Zoll ist eindeutig zu groß als normaler Monitor. Da muss man den Kopf viel zu viel bewegen.
OgrEGT
2025-09-03, 06:14:58
Du hast trotzdem nur 1440p in der Vertikalen und bleibst bei den mickrigen 109ppi. Ist nicht anderes wie ein 27 Zöller mit 1440p.
ppi ist nicht die alleinige und entscheidende Kenngröße...
Empfehle diesen Artikel
https://www.reddit.com/r/Monitors/comments/wixw1h/breaking_down_monitor_metrics_ppd_fov_and_more/?tl=de
Mickrig ist in der Tat eine Diagonale von nur 27"
dargo
2025-09-03, 07:25:49
Dargo mal wieder, immer am dicken Spielen. Beleidigt ständig nur andere User mit Schlagwörtern wie mickrig und co. Super Charakter. Richtig fein. :smile:
Dein Kopfkino hat einen Schaden, niemand wird hier beleidigt.
ppi ist nicht die alleinige und entscheidende Kenngröße...
Empfehle diesen Artikel
https://www.reddit.com/r/Monitors/comments/wixw1h/breaking_down_monitor_metrics_ppd_fov_and_more/?tl=de
Mickrig ist in der Tat eine Diagonale von nur 27"
Wie oft denn noch? Mein Sitzabstand ändert sich nicht! Wenn dein Sitzabstand zu diesem 49" Screen nennenswert größer ausfällt als meiner vor dem 27" 4k Screen dann wirkt der 49 Zöller ist der Vertikalen viel zu klein. Mit Immersion hat das dann gar nichts mehr zu tun. Und wie schon Jimmy richtig gesagt hat... bist du zu nah dran an diesem 32:9 Ding musst du dann ständig den Kopf hin und her bewegen. Dein Nacken wird sich auf Dauer sehr freuen.
btw.
Wenn du meinst du wirst mit dem 49" Teil glücklich dann greif zu. Es ist jedem frei überlassen was er sich kauft. :)
Dargo mal wieder, immer am dicken Spielen. Beleidigt ständig nur andere User mit Schlagwörtern wie mickrig und co. Super Charakter. Richtig fein. :smile:
Etwas dick aufgetragen, aber ganz Unrecht hat er nicht.
Deine Wortwahl impliziert schon das die Leute mit einer abweichenden Meinung zu deiner keine Ahnung haben,
zumal die PPI Diskussion eine ganz eigene ist da man die PPI zwischen verschiedene Bildschirmtechnologien schwer vergleichen kannst.
Im Übrigen sind Monitor Entscheidungen immer individuell je nach Mensch.
Die einen mögen ein möglichst kleines Panel, die anderen ein Möglichst großes wo man den Kopf drehen muss, ist doch alles super so lange die Leute mit ihrer Wahl zufrieden sind.
Ich bin z.B. von einem 32" 4K IPS Panel auf ein 45" 1440p Breitbild OLED Panel umgestiegen, und empfinde das OLED Bild als sauberer trotz weniger PPI.
Ist halt meine individuelle Meinung.
Ob jemand seine Karte durchtauschen möchte oder nicht muss halt jeder für sich selbst entscheiden, hängt ja auch davon ab, ob und für wie viel er seine alte Karte verkaufen kann.
horn 12
2025-09-03, 09:44:14
https://videocardz.com/newz/jpr-nvidia-discrete-gpu-market-share-reaches-94
Nvidia 94%
und
AMD nur bei 6%
Marktanteilen
obwohl RX 9070 / 9070XT ab Anfang März im Laden stehen...
dildo4u
2025-09-03, 09:53:39
AMD hat nich genug produziert das wurde schon bestätigt.
https://www.pcgamer.com/hardware/graphics-cards/demand-has-been-very-strong-and-outpaced-supply-for-amds-rx-9000-series-cards-according-to-ceo-dr-lisa-su-as-anyone-whos-tried-to-buy-one-can-attest
Ex3cut3r
2025-09-03, 09:54:37
https://videocardz.com/newz/jpr-nvidia-discrete-gpu-market-share-reaches-94
Nvidia 94%
und
AMD nur bei 6%
Marktanteilen
obwohl RX 9070 / 9070XT ab Anfang März im Laden stehen...
Ich weiß nicht, was du erwartet hast. Die 5070 Ti ist aktuell für 780 € erhältlich und sofort lieferbar. Das Software-Ökosystem von Nvidia bleibt nach wie vor unerreicht. Was genau soll AMD auf dem Papier besser machen können?
Beim PC-Gaming denken etwa 95 % der Leute automatisch an Nvidia. Von AMDs Marketing habe ich zum Beispiel auf YouTube bisher kaum etwas mitbekommen. Investieren sie überhaupt in Werbung?
Nur wenn Nvidia zwei- bis dreimal hintereinander wirklich schwache Generationen auf den Markt bringen würde und AMD gleichzeitig, ähnlich wie bei Ryzen, konsequent abliefern könnte, sehe ich da Potenzial. Meiner Meinung nach wird das aber nicht passieren.
Vielleicht wäre es für AMD sogar sinnvoller, die GPU-Sparte ganz aufzugeben und sich stattdessen voll auf CPUs zu konzentrieren?
dildo4u
2025-09-03, 10:00:27
AMD hat einfach nicht genug Karten vorproduziert da RDNA3 gefloppt ist jede produktions Anpassung dauter mindestens 6 Monate.
9070 sollte direkt gegen die 5070 antreten kostet aber immher noch deutlich mehr.
Linmoum
2025-09-03, 10:02:19
Die reine Verfügbarkeit der Karten ist ganz sicher nicht das Problem. Dafür muss man kein Insider sein, sondern das sieht man beim Blick in die diversen Onlineshops selbst.
dildo4u
2025-09-03, 10:07:29
Nur eine Karte ist bei 630€ der Rest ist massiv zu teuer.
Sapphire Pulse ist z.b bei 678€ das ist ein Basis Modell.
https://geizhals.de/?cat=gra16_512&hloc=de&v=l&sort=t&bl1_id=30&xf=9809_05+16+-+RX+9070+XT
Newegg US Preise im September. UVP für Basis Modelle wie Pulse sollte 600$ sein
https://i.ibb.co/d0mD54Fr/Bildschirmfoto-vom-2025-09-03-10-29-01.png (https://ibb.co/tMLDJpg4)
Hakim
2025-09-03, 10:18:01
Das wird in Deutschland etwas besser für AMD aussehen. Aber ich habe es von Anfang an gesagt, die Preisnachlässe gab es eher bei Nvidia Karten als bei AMD, erst seit einer Weile sind die AMD Karten runtergegangen. Für eine ganze Weile hat man keine 9070XT für unter 700€ bekommen, obwohl UVP hier 689€ sein sollte, während z.B die 5070Ti schon nach einer Weile für unter der UVP zu haben war. Laut UVP kosten auch die 5070 und 9070 gleich viel ( beides mit 550$ gestartet). Dennoch gab es die Nvidia wesentlich früher für viel weniger während die 9070 erst in letzter Zeit etwas nachgelassen hat, aktuell immer noch die 5070 ca 10% günstiger.
dargo
2025-09-03, 10:44:22
Vielleicht wäre es für AMD sogar sinnvoller, die GPU-Sparte ganz aufzugeben und sich stattdessen voll auf CPUs zu konzentrieren?
Genau... das hilft dem Markt garantiert. :facepalm: Ohne AMD wäre ne popelige RTX 5070 locker bei 800€.
Hakim
2025-09-03, 10:46:56
Das will selbst Nvidia nicht, wozu auch man will sich nicht selber schaden.
Exxtreme
2025-09-03, 10:51:46
Genau... das hilft dem Markt garantiert. :facepalm: Ohne AMD wäre ne popelige RTX 5070 locker bei 800€.
Das könnte aber passieren. Mal ernsthaft, man merkt irgendwie, dass AMD keine richtige Lust auf Grafikkarten hat. Die sind eine CPU-Firma und ihnen ist es wichtig Intel zu schlagen. Sprich, wenn Intel bei Grafikkarten nicht vorlegt dann macht AMD das auch nicht. Wenn Intel die Grafikkartensparte aber wieder dichtmachen sollte dann sind für AMD nur noch Konsolen ein guter Grund für Grafikkarten. Nur wenn man MLID Glauben schenken darf dann wird die nächste Xbox ein normaler Windows-PC werden. Und dann wird man schauen müssen was Sony so macht.
dargo
2025-09-03, 10:51:53
Das will selbst Nvidia nicht, wozu auch man will sich nicht selber schaden.
Klar... deswegen wollte Nvidia schon eine RTX 4070TI als 4080 verkaufen. Ich frage mich echt in welcher Traumwelt hier so manche leben wenn es um Monopole geht. Traumtänzer nennt man sowas glaube ich.
aufkrawall
2025-09-03, 10:52:18
Vielleicht wäre es für AMD sogar sinnvoller, die GPU-Sparte ganz aufzugeben und sich stattdessen voll auf CPUs zu konzentrieren?
Langsam sollte man es mal begriffen haben, dass GPUs und ML nicht mehr zu trennen sind und sich das von APUs bis Server zieht.
dargo
2025-09-03, 10:59:05
Das könnte aber passieren. Mal ernsthaft, man merkt irgendwie, dass AMD keine richtige Lust auf Grafikkarten hat.
Woran merkt man das? RDNA4 ist absolut gelungen. Alles weit über 300W ist eh kompletter Nonsens, außer vielleicht für Waküfreunde. Die RTX 5090 kannst du im Gaming komplett ignorieren. Sowohl Preisegment als auch Powerbudget sind absolut lächerlich. Bei der RTX 5080 ist praktisch Schluss mit Vernunft. Hätte AMD sich bei RDNA4 für eine SKU mit 380-400mm² entschieden wäre AMD absolut in Reichweite von Nvidia in diesem Segment. Nur wäre diese SKU dann ebenfalls irgendwo bei 350-375W rausgekommen, der Fertigungsprozess gibt nicht mehr her. AMD hat sich aber wie alle mittlerweile wissen für max. 357mm² in dieser Gen entschieden.
aufkrawall
2025-09-03, 11:08:02
Alles weit über 300W ist eh kompletter Nonsens, außer vielleicht für Waküfreunde.
Quatsch. Wenn man nicht zwei linke Hände hat, geht das problemlos mit LK. Spätestens mit AiO für die CPU.
Die Sysinfo-Seiten von Usern in Internetforen sind voll mit 5090s, ob dir das nun passt oder nicht. Und jetzt nicht mit der Ausrede des zu hohen Preises für Normalos kommen, das ist bei 9070 und XT auch schon so.
dargo
2025-09-03, 11:17:54
Quatsch. Wenn man nicht zwei linke Hände hat, geht das problemlos mit LK. Spätestens mit AiO für die CPU.
Das hat rein gar nichts mit zwei linken Händen zu tun sondern ist reine Physik. Und komme mir nicht mit irgendwelchen Usern um die Ecke die entweder schwerhörig sind (wenn ich schon lese was für manche leise ist da ich nur mit dem Kopf schütteln) oder denen ein nahezu unhörbares System auch bei Last nicht so wichtig ist. Das als Maßstab zu nehmen ist einfach lächerlich.
Und jetzt nicht mit der Ausrede des zu hohen Preises für Normalos kommen, das ist bei 9070 und XT auch schon so.
Wem ~600€ zu viel ist der greift halt tiefer bei bsw. RX 9060XT. Hier hat dann auch jeder den Vorteil eines praktisch unhörbaren Systems schon alleine aus der Tatsache, dass die Dinger relativ weit unter 200W ohne OC landen. Wenn der AIB logischerweise keinen Mist gebaut hat wie zb. XFX und auch Asus. Wobei hier auch wieder vermurkste Lüfterkurven eine Rolle spielen.
https://www.computerbase.de/artikel/grafikkarten/radeon-rx-9060-xt-16gb-custom-design-test.93257/seite-2#abschnitt_leistungsaufnahme
Ich würde noch gerne erwähnen, dass das TG Kryosheet bei hohem Anpressdruck ebenfalls wahre Wunder bewirkt, ist auch leitend aber leichter zu handhaben als Flüssigmetall.
Es liefert ohne hohen Anpressdruck allerdings nur im Bereich von guter WLP ab.
Tesseract
2025-09-03, 11:29:34
Alles weit über 300W ist eh kompletter Nonsens, außer vielleicht für Waküfreunde.
oder man löst sich endlich vom 80er jahre gehäuseparadigma und nimmt ein modernes airflow case wo es völlig egal ist ob die graka 300W oder 800W abgibt solange der kühler auf der karte selbst damit gut zurecht kommt. habe ich dir aber schon gefühlt 5 mal gesagt.
aufkrawall
2025-09-03, 11:30:52
Das hat rein gar nichts mit zwei linken Händen zu tun sondern ist reine Physik. Und komme mir nicht mit irgendwelchen Usern um die Ecke die entweder schwerhörig sind (wenn ich schon lese was für manche leise ist da ich nur mit dem Kopf schütteln) oder denen ein nahezu unhörbares System auch bei Last nicht so wichtig ist. Das als Maßstab zu nehmen ist einfach lächerlich.
Nehm ich auch nicht, die 5090 TUF ist bei 450W im geschlossenen geräumigen Gehäuse kaum zu hören und stirbt auch nicht den Hitzetod...
dargo
2025-09-03, 11:32:37
oder man löst sich endlich vom 80er jahre gehäuseparadigma und nimmt ein modernes airflow case wo es völlig egal ist ob die graka 300W oder 800W abgibt solange der kühler auf der karte selbst damit gut zurecht kommt. habe ich dir aber schon gefühlt 5 mal gesagt.
Klar... und dann schickt man 95% der Grakas wieder Retoure weil man jeden Pups durch die schweizer Käse hört. :uclap: Hatte ich dir gefühlt 5x schon gesagt. :cool: Außerdem will nicht jeder diese riesen Menge an Abwärme (800W lol!) im Raum haben.
Nehm ich auch nicht, die 5090 TUF ist bei 450W im geschlossenen geräumigen Gehäuse kaum zu hören und stirbt auch nicht den Hitzetod...
Lol... ich lache später. Was glaubst du wie kalt meine RX 9070 XT wird wenn ich ihr 125W weniger erlaube zu nuckeln. :freak: Da kann ich schon spielend mit 800RPM fahren und das Ding wird immer noch kalt bleiben. Zudem wäre dieser Ziegelstein für mich eh komplett indiskutabel, hatte ich auch schon gefühlt 100x hier gesagt. Wenn ihr sowas akzeptiert dann kauft es euch. Ich will sowas einfach nicht mehr haben.
The_Invisible
2025-09-03, 11:37:01
Woran merkt man das? RDNA4 ist absolut gelungen. Alles weit über 300W ist eh kompletter Nonsens, außer vielleicht für Waküfreunde. Die RTX 5090 kannst du im Gaming komplett ignorieren. Sowohl Preisegment als auch Powerbudget sind absolut lächerlich. Bei der RTX 5080 ist praktisch Schluss mit Vernunft. Hätte AMD sich bei RDNA4 für eine SKU mit 380-400mm² entschieden wäre AMD absolut in Reichweite von Nvidia in diesem Segment. Nur wäre diese SKU dann ebenfalls irgendwo bei 350-375W rausgekommen, der Fertigungsprozess gibt nicht mehr her. AMD hat sich aber wie alle mittlerweile wissen für max. 357mm² in dieser Gen entschieden.
Software ist heute viel wichtiger als Hardware und da ist AMD dauernd im Hinterherlaufen. RT/PT und Konsorten mögen für dich nicht wichtig sein aber für den Rest der Welt schon. Aber dazu müsste man halt mal über den Tellerrand gucken wollen...
AMD hat nich genug produziert das wurde schon bestätigt.
https://www.pcgamer.com/hardware/graphics-cards/demand-has-been-very-strong-and-outpaced-supply-for-amds-rx-9000-series-cards-according-to-ceo-dr-lisa-su-as-anyone-whos-tried-to-buy-one-can-attest
Stehen genug Karten im Laden, wenn sie keiner kaufen will hilft auch "mehr produzieren" nix
Exxtreme
2025-09-03, 11:39:43
Woran merkt man das? RDNA4 ist absolut gelungen.
Ich merke es daran, dass RDNA4 ca. auf dem Stand von Ampere ist. Sprich, AMD hinkt etwa 5 Jahre hinterher. Ja, RDNA4 ist schneller aber auch nur weil es in einem Prozess gefertigt wird, den es 2020 nicht gab. Es ist jetzt auch nicht so, dass AMD es nicht kann. Die wollen einfach nicht. Die machen Konsolen-GPUs und verbauen sie auf Grafikkarten.
dargo
2025-09-03, 11:41:40
Software ist heute viel wichtiger als Hardware und da ist AMD dauernd im Hinterherlaufen. RT/PT und Konsorten mögen für dich nicht wichtig sein aber für den Rest der Welt schon. Aber dazu müsste man halt mal über den Tellerrand gucken wollen...
Wie lange willst du mir noch deine Märchen vortragen? RT/PT ist bis zur RTX 5070 auch völlig unbrauchbar da zu teuer. Und komme mir nicht wieder mit deinem bullshit @MFG um die Ecke, weil dann kann ich dich nicht mehr ernst nehmen.
Ich merke es daran, dass RDNA4 ca. auf dem Stand von Ampere ist.
:lol:
Sorry, aber sowas bescheuertes von dir hätte ich jetzt wirklich nicht erwartet.
Ich würde es ganz nett finden wenn die platten Nvidia toll AMD nicht toll
Beiträge nicht in einem Review thread gepostet werden könnten.
eins/zwei Leute aus der Nvidia Hardcore Fankurve sind echt anstregend.
Lurtz
2025-09-03, 11:47:20
:lol:
Sorry, aber sowas bescheuertes von dir hätte ich jetzt wirklich nicht erwartet.
Featuretechnisch hat er doch recht. RT jetzt ohne größere Performance-Verluste möglich, KI-Upscaling. Das alles hat im Kern schon Ampere geboten, das einzige was fehlt ist FG, aber dafür gibt es andere Lösungen.
Gibt nüchtern betrachtet einfach keinen Grund AMD zu kaufen, außer man hat ein festes Budget und das entsprechende nVidia-Modell übertreibt es mit dem VRAM-Geiz (was AMD aber auch kann).
aufkrawall
2025-09-03, 11:51:24
Wobei man AMD schon loben darf, dass FSR 4 mit Transformer-Anteil auf RDNA4 so schnell läuft. Die Hardware ist definitiv da und das Potenzial für die Zukunft vorhanden (wenn sie denn wollen...).
Aber ist classic AMD, dass man trotz der Brotkrumen vom ML-Markt Gaming schon so hart fallen lässt, während Nvidia einfach an beiden Fronten extrem gewinnt. Da ist die Rollen- und Umsatzverteilung einfach nur gerecht, wenn man so krass unter den Möglichkeiten performt.
Tesseract
2025-09-03, 11:52:40
Klar... und dann schickt man 95% der Grakas wieder Retoure weil man jeden Pups durch die schweizer Käse hört.
wenige große langsamdrehende lüfter mit wenig obstruktion haben enorme vorteile; eine hohe replacement-rate hat enorme vorteile. keine ahnung was du dir da zusammendichtest aber die typische graka dreht wahrscheinlich locker 100-200rpm langsamer in so einem setup, zusätzlich zu weniger resonanz, weniger wirbel etc.
eine große wärmequelle hotboxen und dann beten dass aus keiner ritze das konzert im inneren durchkommt ist absurd. dieses design stammt aus einer zeit wo CPUs einen <60mm lüfter hatten und grakas passiv waren. eine wakü macht im prinzip auch nur indirekt was ein airflow case direkt macht ohne pumpe etc.
dargo
2025-09-03, 11:55:03
wenige große langsamdrehende lüfter mit wenig obstruktion haben enorme vorteile; eine hohe replacement-rate hat enorme vorteile. keine ahnung was du dir da zusammendichtest aber die typische graka dreht wahrscheinlich locker 100-200rpm langsamer in so einem setup, zusätzlich zu weniger resonanz, weniger wirbel etc.
Och Junge... singende Spulen in unterschiedlichen Frequenzen und Lautstärken sind für dich Neuland? Als ob Lüfter die einzige störende Quelle bei Grafikkarten wären. :rolleyes: Und ich wiederhole es gerne für dich normal... ich will diese hohe Abwärme nicht im Zimmer haben! Das mag im Winter noch toll sein um den Heizkörper nicht aufdrehen zu müssen bei kalten Tagen. Frühling/Herbst und besonders Sommer finde ich das einfach nur ätzend. Schon alleine aus diesem Grund werde ich keine Grafikkarten mit >300W kaufen bzw. mit diesem Betriebspunkt betreiben.
Hakim
2025-09-03, 12:01:47
Was ich halt merkwürdig finde, das es vor Release Meldungungen gab wo es hieß das man primär Markanteile zurück gewinnen will. Aber dafür waren die Preise mMn viel zu lange zu hoch. AMD hat auch zu wenig dafür getan das mal Angebote für UVP angeboten werden. Gab mal den Post dazu, aber so richtig hat sich nichts getan.
dargo
2025-09-03, 12:05:47
Was ich halt merkwürdig finde, das es vor Release Meldungungen gab wo es hieß das man primär Markanteile zurück gewinnen will. Aber dafür waren die Preise mMn viel zu lange zu hoch.
Keine Ahnung was du merkwürdig daran findest wenn der Ansturm die ersten Monate zu groß war. Angebot und Nachfrage muss ich dir hoffentlich nicht erklären.
dildo4u
2025-09-03, 12:12:21
Was ich halt merkwürdig finde, das es vor Release Meldungungen gab wo es hieß das man primär Markanteile zurück gewinnen will. Aber dafür waren die Preise mMn viel zu lange zu hoch. AMD hat auch zu wenig dafür getan das mal Angebote für UVP angeboten werden. Gab mal den Post dazu, aber so richtig hat sich nichts getan.
AMD kann mitlerweile die winzigen 8 Core Ryzen CCD als 9800X3D für 500 € verkaufen eine 9070 für 500 € macht massiv weniger Gewinn.
Beide nutzen 4nm die Entscheidung ist einfach was Priorität hat.
Hakim
2025-09-03, 12:15:50
Du kannst es drehen wie du willst, es wurden Fehler gemacht. Die meisten Tests waren positiv weil man den günstigen Preis in Relation bewertet hat, den hat es monatelang aber nicht gegeben. Dann postet man das es mehr UVP Preise geben wird und es tut sich dennoch praktisch nichts. Während der Marktführer kontinuierlich mit den Preisen runter ging. Du bist selbst AMD Fanboy und hast selber Monatelang gewartet weil die Preise zu hoch waren. Wie hätte das viele Nvidia user überzeugen sollen?
Tesseract
2025-09-03, 12:21:37
Och Junge... singende Spulen in unterschiedlichen Frequenzen und Lautstärken sind für dich Neuland?
singende spulen hatte ich, abgesehen von unlimitierter niedriglast bei 1000fps+, seit gefühlten 10 jahren nicht mehr. ich hör die platten im NAS zwei räume weiter lauter als alles aus meinem desktop abgesehen von den lüftern selbst unter last.
Du kannst es drehen wie du willst, es wurden Fehler gemacht. Die meisten Tests waren positiv weil man den günstigen Preis in Relation bewertet hat, den hat es monatelang aber nicht gegeben. Dann postet man das es mehr UVP Preise geben wird und es tut sich dennoch praktisch nichts. Während der Marktführer kontinuierlich mit den Preisen runter ging. Du bist selbst AMD Fanboy und hast selber Monatelang gewartet weil die Preise zu hoch waren. Wie hätte das viele Nvidia user überzeugen sollen?
True,
ich war jetzt nicht überrascht da Kommunikation von Konzernen i.d.r reines Marketing Blah Blah ist, aber eine so starken Player wie Nvidia mit der massiven Marktpräsenz Anteile abnehmen zu wollen geht IMO nur mit subventionierten Kampfpreisen und starkem Marketing um dann hoffentlich in der next Gen die Marge einzufahren.
Schade da RDNA4 vieles richtig gemacht hat von RDNA3 kommend.
Bei der aktuellen Preisgestaltung spricht wenig gegen Nvidia (bei mir ist es der 12V lol Stecker den ich absolut nicht in meinem Gehäuse haben möchte)
Prinzenrolle
2025-09-03, 12:38:15
AMD hat nich genug produziert das wurde schon bestätigt.
Logisch, deshalb sind AMD Karten auch so schlecht verfügbar.
Wie lange willst du mir noch deine Märchen vortragen?
Warst du nicht der, der mit Erscheinen von Directx12 und AMDs ziemlich beindruckendem Technologie-Pushing nur noch auf Directx12 Titel setzen wollte?:biggrin:
Rein technisch gesehen, müsstest du ja voll auf RT und Pathtracing abfahren und wie zu wenige drawcalls als auch zurückggebliebene Beleuchtung sowie Schatten und Reflektionen verurteilen.
AMD kann mitlerweile die winzigen 8 Core Ryzen CCD als 9800X3D für 500 € verkaufen eine 9070 für 500 € macht massiv weniger Gewinn.
Gute Einlassung.
aufkrawall
2025-09-03, 12:39:19
Hier nicht, in den USA offenbar schon. Muss ja einen Grund für die Preisunterschiede hier vs. dort geben, schwacher Dollar und Zollchaos betrifft Nvidia dort genauso.
dargo
2025-09-03, 12:44:54
Du kannst es drehen wie du willst, es wurden Fehler gemacht. Die meisten Tests waren positiv weil man den günstigen Preis in Relation bewertet hat, den hat es monatelang aber nicht gegeben. Dann postet man das es mehr UVP Preise geben wird und es tut sich dennoch praktisch nichts. Während der Marktführer kontinuierlich mit den Preisen runter ging.
Dein Fehler ist, dass du nur das kleine DE siehst und nicht die globale Verfügbarkeit. Drüben über dem großen "See" gab es viele Karten zur UVP beim Release. Hier in DE haben sich dagegen die (Groß)händler die Taschen voll gemacht. Wenige Käufer hatten was zur UVP bekommen, aber eben nur wenige. Um sowas zu verhindern musst du massive Stückzahlen weltweit liefern. Den Ansturm hatte AMD völlig unterschätzt. Der Ansturm war aber auch Nvidia geschuldet weil sie anfangs nicht massiv liefern wollten oder konnten und den Vorgänger EOL geschickt haben. Ein anderes Thema hat schon dildo angesprochen. Waferkapazitäten sind nicht unendlich. Wenn ein Unternehmen mit dem genannten 9800X3D (nur ein Beispiel) wesentlich mehr Cash generiert vs. Materialaufwand kannst du dir den Rest selbst zusammen reimen.
singende spulen hatte ich, abgesehen von unlimitierter niedriglast bei 1000fps+, seit gefühlten 10 jahren nicht mehr.
Dann hast du offenbar Glück bei der Wahl der anderen Komponenten wie zb. NT oder du erwischst immer die besten Grafikkarten bei diesem Thema. Ich gehe jetzt mal davon aus dein Gehör ist vollkommen in Ordnung. Ich habe seit gefühlt 10 Jahren keine einzige Grafikkarte mehr gehabt mit stillen Spulen. Und viel früher womöglich gar nicht mal so genau darauf geachtet weil die Luftkühler früher auch lauter waren und somit die Spulengeräusche eventuell im Lüfterlärm untergingen. Wenn ich bei einem offenen Gehäuse genau hinhöre mit Kopf direkt daneben dann machten bisher alle Grafikkarten Spulengeräusche. Ausnahmslos alle! Es unterscheidet sich nur die Frequenz und Lautstärke. Dann hängt es vom Gehäuse ab wieviel davon noch aus einem geschlossenen Gehäuse nach außen dringt ohne zu nerven. Mit Glück dringt nahezu gar nichts raus weil sehr leise Spulengeräusche, mit Pech muss so ein Ding Retoure weil zu laute Spulengeräusche.
Lurtz
2025-09-03, 13:10:01
Wieso drückt sich dieser massive Ansturm nicht in den Marktanteilen aus? Wahrscheinlich fand der wieder vor allem in der Selbstbauer-Blase statt, teils auch regional verstärkt wie in Deutschland. Da meint man immer AMD müsste mindestens 50% Marktanteil haben.
dargo
2025-09-03, 13:15:39
Keine Ahnung... möglicherweise werden dGPUs überbewertet bzw. bilden nicht den gesamten Gamingmarkt korrekt ab. Bei Steam heißt es aktuell 74,88% Nvidia vs. 17,32% AMD. Wo mit Sicherheit auch viele APUs dabei sind. Angeblich liefert Nvidia auch so viele Blackwell-GPUs aus, bei Steam sehe ich die erste Blackwell RTX 5070 an 20-igster Stelle. Aber keine Ahnung wie lange es braucht bis sich das bei Steam stark bemerkbar macht. Vielleicht ist da ein halbes Jahr noch viel zu kurz.
DrFreaK666
2025-09-03, 13:20:07
Ich weiß nicht, was du erwartet hast. Die 5070 Ti ist aktuell für 780 € erhältlich und sofort lieferbar...
Und das ist das Modell, das sich am besten verkauft? Wohl kaum
The_Invisible
2025-09-03, 13:30:02
Keine Ahnung... möglicherweise werden dGPUs überbewertet bzw. bilden nicht den gesamten Gamingmarkt korrekt ab. Bei Steam heißt es aktuell 74,88% Nvidia vs. 17,32% AMD. Wo mit Sicherheit auch viele APUs dabei sind. Angeblich liefert Nvidia auch so viele Blackwell-GPUs aus, bei Steam sehe ich die erste Blackwell RTX 5070 an 20-igster Stelle. Aber keine Ahnung wie lange es braucht bis sich das bei Steam stark bemerkbar macht. Vielleicht ist da ein halbes Jahr noch viel zu kurz.
Wenn man die APUs rausrechnet steigt der Anteil von Nvidia auf Steam nochmals da diese ja keine APUs liefern. Beim schnellen drüberschauen sind da locker 10% reine APUs bei Steam
dargo
2025-09-03, 13:34:07
Wenn man die APUs rausrechnet steigt der Anteil von Nvidia auf Steam nochmals da diese ja keine APUs liefern.
Das ist Nvidias Problem, nicht AMDs. Gaming lebt nicht ausschließlich aus dGPUs!
Slipknot79
2025-09-03, 13:38:32
Mal ernsthaft, man merkt irgendwie, dass AMD keine richtige Lust auf Grafikkarten hat.
Liegt auch an deren Kunden. AMD-Kunden sind extrem lustlos hinsichtlich technischen Fortschritts. Wird konsequent nicht supportet. Immer eine Generation hinterher, Features von gestern.
Hier macht Lederjacke alles richtig und hat richtig erkannt: Wer das Hobby liebt und sofort dabei sein will, wird Nvidia-Karten kaufen.
Wer es hasst, der kauft AMD. (y)
Die meisten mögen aber ihr Hobby, zum Glück. (y)
Tesseract
2025-09-03, 13:49:39
Dann hast du offenbar Glück bei der Wahl der anderen Komponenten wie zb. NT oder du erwischst immer die besten Grafikkarten bei diesem Thema.
ich habe nicht explizit für coilwhine recherchiert aber achte immer auf solide designs, das spielt wahrscheinlich eine große rolle, besonders bei netzteilen die man wahrscheinlich 10+ jahre verwendet und es wenig sinn macht ein paar euro zu sparen.
Wenn ich bei einem offenen Gehäuse genau hinhöre mit Kopf direkt daneben dann machten bisher alle Grafikkarten Spulengeräusche.
das ist normal aber das aus dem gehäuse zu hören ist extrem, besonders bei frequenzen die eigentlich nicht gut propagieren. bist du sicher dass das nicht über die gehäusewand geleitet wird wo (dämm)gummi oder ähnliches mehr bringen würde als weniger öffnungen?
wie gesagt: je mehr lärmquellen umso problematischer das ganze. jeder zusätzliche lüfter, jeder zusätzliche winkel im luftstrom, jedes zusätzliche rpm, jede nicht-entkoppelte komponente usw. ist potenziell mehr ungute interferenz. dieses ganze kleinvieh ist in summe sehr unberechenbar und kann viel mist machen. schlechte elektrische designs bzw. schlechte verarbeitung kommt dann noch dazu. für direkte elektrische geräusche reicht es meist keine direkte luftlinie vom ohr zur komponente zu haben bei den hohen frequenzen.
Liegt auch an deren Kunden. AMD-Kunden sind extrem lustlos hinsichtlich technischen Fortschritts. Wird konsequent nicht supportet. Immer eine Generation hinterher, Features von gestern.
Hier macht Lederjacke alles richtig und hat richtig erkannt: Wer das Hobby liebt und sofort dabei sein will, wird Nvidia-Karten kaufen.
Wer es hasst, der kauft AMD. (y)
Die meisten mögen aber ihr Hobby, zum Glück. (y)
Erst mal Pauschal alle AMD Gpu Käufer beleidigen, läuft bei dir.
DrFreaK666
2025-09-03, 13:51:17
Liegt auch an deren Kunden. AMD-Kunden sind extrem lustlos hinsichtlich technischen Fortschritts. Wird konsequent nicht supportet. Immer eine Generation hinterher, Features von gestern.
Hier macht Lederjacke alles richtig und hat richtig erkannt: Wer das Hobby liebt und sofort dabei sein will, wird Nvidia-Karten kaufen.
Wer es hasst, der kauft AMD. (y)
Die meisten mögen aber ihr Hobby, zum Glück. (y)
Du hast *SarkasmusOff* vergessen, oder wieso hast keine 5070, die genauso schnell ist wie deine 4090? Willst kein MFG als feature von heute?
robbitop
2025-09-03, 14:01:48
Ich merke es daran, dass RDNA4 ca. auf dem Stand von Ampere ist. Sprich, AMD hinkt etwa 5 Jahre hinterher. Ja, RDNA4 ist schneller aber auch nur weil es in einem Prozess gefertigt wird, den es 2020 nicht gab. Es ist jetzt auch nicht so, dass AMD es nicht kann. Die wollen einfach nicht. Die machen Konsolen-GPUs und verbauen sie auf Grafikkarten.
Magst du das erklären? N4x ist auf einem sehr vergleichbaren Fertigungsprozess gebaut wie Blackwell. TSMC 4nm. Und es kommt doch pro mm2 sehr sehr ähnliche Performance (sogar in RT) heraus. Und ein modernes NN Upsampling (sogar mit Transformeranteil) hat AMD nun auch.
Jetzt kann man PT aufzählen und ja da ist Blackwell schneller - aber wie viel davon ist durch Nvidia spezifische Optimierungen die nicht über RT Schnittstelle von DX implementiert wurde sondern über NVAPI?
Jetzt kann man noch RR und MFG anführen - ja das stimmt - aber auch das wird sich mit Redstone bald ändern. Und das ist auch "nur" Software.
IMO kann man schonmal anerkennen, dass RDNA4 ggü seinem Vorgänger ein gewaltiger Sprung war und man bei gleichem SKU Level auch mit Blackwell mithalten kann und man sogar noch einen Preisvorteil hat.
Featuretechnisch hat er doch recht. RT jetzt ohne größere Performance-Verluste möglich, KI-Upscaling. Das alles hat im Kern schon Ampere geboten, das einzige was fehlt ist FG, aber dafür gibt es andere Lösungen.
In der Hinsicht hat sich aber bis zu Blackwell auch nicht viel geändert oder?
Das scheint ein sehr positives Licht auf Ampere (und IMO auch auf Turing) und ein sehr negatives auf RDNA3 (und auch RDNA2). Aber nicht unbedingt ein sehr positives auf Blackwell. Quasi alles was Blackwell macht ist Software.
Aber der Vergleich war ja Blackwell vs RDNA4 - also uArch vs uArch und nicht Software vs Software.
Bei letzterem stimmt es (bis zum Release von Redstone mindestens) allerdings. Aber auch da muss man konstatieren, dass AMD wirklich große Schritte gemacht hat. :)
Slipknot79
2025-09-03, 14:03:34
Du hast *NullAussage* vergessen.
Wusste gar nicht, dass 5070 und 4090 gleich sein sollen, wo ist da der Fortschritt von dem ich schrieb?. ;D
aufkrawall
2025-09-03, 14:11:24
ich habe nicht explizit für coilwhine recherchiert aber achte immer auf solide designs, das spielt wahrscheinlich eine große rolle, besonders bei netzteilen die man wahrscheinlich 10+ jahre verwendet und es wenig sinn macht ein paar euro zu sparen.
Ne, ist reiner Zufall. Kannst aber auch Karten mit wenig Verbrauch und nervigem Surren haben. Wobei man da mit Nvidia wenigstens noch Curve-UV als sehr effektive Linderungsmaßnahme hat.
robbitop
2025-09-03, 14:13:42
Wieso drückt sich dieser massive Ansturm nicht in den Marktanteilen aus? Wahrscheinlich fand der wieder vor allem in der Selbstbauer-Blase statt, teils auch regional verstärkt wie in Deutschland. Da meint man immer AMD müsste mindestens 50% Marktanteil haben.
Ich spekuliere mal :) :
(a) eine starke Marke ist sehr sehr viel wert - da hat Nvidia einfach einen massiven Vorteil. Um sich auch eine starke Marke aufzubauen, braucht es Zeit und regelmäßiges Abliefern. Zufriedene Kunden - wieder und wieder und wieder. Bei Ryzen hat es viele Jahre konsistentes (!) Abliefern gebraucht, bis man sich das langsam aufgebaut hat. Intel verkauft trotz unterlegenen CPUs aber noch immer mehr CPUs als AMD AFAIK. Und das 8 Jahre nach Ryzen/Epyc. Und da hat man praktisch nie große "oopsies" abgeliefert. Radeon hingegen ist seit Jahren hingegen hit or miss. Features funktionieren oft nicht hundertprozentig gut usw.
RDNA4 war ein sehr guter Start in 2025 und FSR4 funktioniert super. Jetzt muss man aber nachlegen und nachlegen und nachlegen. Keine Oopsies mehr. Dann wird man sicherlich Gen over Gen auch Marktanteile aufbauen können. Aber nicht innerhalb einer Generation. IMO.
(b) dafür dass (a) nunmal ist wie es ist, ist der Preisvorteil wahrscheinlich (insbesondere über den großen Schnitt der GPUs) relativ zu gleichen Nvidia SKUs noch nicht aggressiv genug.
(c) design wins bei Fertig PCs und Laptops hält sich relativ in Grenzen - insbesondere mit Radeon. Wahrscheinlich auch wegen (a) und (b). Ich hatte aber auch irgendwo mal gelesen, dass man den OEMs (zumindest bei Laptops) deutlich unter die Arme greifen muss mit Engineering. Darin sind Nvidia und Intel zumindest bis heute offenbar deutlich stärker.
--------------
Aber all in all sollten wir uns lieber wünschen, dass AMD weiter in nach vorn kommt. Ein einseitig dominierter Markt ist schlecht für uns Endkunden. Teure Preise, kleine Leistungssteigerung pro Zeiteinheit. Je mehr Teilnehmer im Markt und desto ähnlich stärker sie sind, desto besser. Insofern verstehe ich Aussagen nicht, dass AMD es lieber lassen sollte. Dann sind wir Endkunden am Arsch. ^^
Exxtreme
2025-09-03, 14:46:26
IMO kann man schonmal anerkennen, dass RDNA4 ggü seinem Vorgänger ein gewaltiger Sprung war und man bei gleichem SKU Level auch mit Blackwell mithalten kann und man sogar noch einen Preisvorteil hat.
Dass das ein gewaltiger Sprung ist, das verneine ich ja nicht. Nur hatte man mit Ampere praktisch das Gleiche, was man mit RDNA4 jetzt auch hat, nur halt 5 Jahre früher. AMD hat jetzt vollständig aufgeschlossen. Und ja, es gibt Dinge wie DP2.1, die hat Ampere nicht. Das gab es damals halt nicht. Andere Dinge wie H.264-Encoder sind erst mit RDNA4 gut geworden. Ampere konnte das schon 2020 etc. Ist halt bissl frustrierend, dass AMD mit einem so gewaltigen Abstand hinterher dackelt. Einiges können sie zwar durch brute force liefern, nur zieht das wiederum viel Strom. Und RDNA4 zeigt auch, dass sie es können wenn sie wollen. Es fehlt aber irgendwie am Wollen. Und ich kann mir auch gut vorstellen, dass sie das deshalb nicht wollen weil man das auf Konsolen nicht so wirklich braucht. Denn da kann man für eine einzige Hardware sehr gut optimieren.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.