Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Launch-Analyse AMD Radeon RX 6x50 Refresh
Leonidas
2022-05-16, 20:03:19
Link zum Artikel:
https://www.3dcenter.org/artikel/launch-analyse-amd-radeon-rx-6x50-refresh
Fleißarbeit, damit am Ende ein +4-6% herauskommt ...
Update 19. Mai 2022:
Performance- und Stromverbrauchs-Werte zur Radeon RX 6950 XT Referenz seitens TechPowerUp hinzugefügt, minimale Veränderungen der jeweiligen Durchschnitts-Werte.
FarCry
2022-05-16, 20:49:26
Möglicherweise wäre es somit besser gewesen, wenn sich AMD diese drei neuen Grafikkarten komplett gespart hätte.
Der letzte Satz ist der wichtigste. Einen Refresh, der im Grunde nichts einbringt, kann man sich kneifen.
Spart Ressourcen an jeder Ecke und man gibt sich nicht der Lächerlichkeit preis.
So sehr ich AMD mag, aber manchmal haben die Leute echt was am Helm. Und die, die das Zeug wegen 5% kaufen erst recht. :crazy2:
Der letzte Satz ist der wichtigste. Einen Refresh, der im Grunde nichts einbringt, kann man sich kneifen.
Spart Ressourcen an jeder Ecke und man gibt sich nicht der Lächerlichkeit preis.
Sehe ich auch so. War vorher schon zu erwarten, dass das Ding für die Katz sein wird. Und dann vor allem so spät, wo die Nachfolger zum Teil in einem halben Jahr da sein dürften. Fand das schon bei NVidia zu spät und unnötig, bei AMD ist es nicht anders.
Berniyh
2022-05-16, 23:40:16
Und die, die das Zeug wegen 5% kaufen erst recht. :crazy2:
Wenn jemand z.B. von einer 6900 XT auf eine 6950 XT upgraded, sicherlich.
Gibt aber auch viele die ein Upgrade von früheren Generationen vor sich her schieben, da kann man es schon überlegen.
Kommt halt darauf an, wo sich am Ende die Preise einpendeln.
Generell finde ich, dass das Ergebnis eigentlich recht solide ist, dafür, dass ja quasi nix passiert ist.
Für mich persönlich sind die Karten nicht interessant, es wird wohl eher eine non-refresh RDNA2 Karte werden.
Aber mal sehen …
Edit: im Übrigen hat der Refresh vermutlich nix an Ressourcen gekostet, man hat ja eigentlich nur die Speicherbausteine ausgetauscht und die TDP minimal erhöht.
Platos
2022-05-17, 00:46:38
Richtig mieser "Refresh". Eig. sollte man das nichtmal Refresh nennen. Teurer und das P/L sogar schlechter :D
Richtig schwach, AMD!
Insgesamt ein solider Refresh. Mehr Leistung ist immer gut und nimmt man gerne mit!
Leonidas
2022-05-17, 05:03:30
Schön, das es unterschiedliche Meinungen gibt.
Also dafür mehr Geld anzusetzen als für den Vorgänger ist schon mehr als nur frech.
Als Minimalrefresh für das selbe Geld ein klein wenig Mehrleistung zu bieten wäre ja noch OK.
Vor allem da es sich ja nicht "nur" um eine neue Leistungsspitze handelt sondern einen Refresh quer durchs Portfolio.
user77
2022-05-17, 07:54:21
Warum gibts eigentlich keine Radeon RX 6850 XT?
Edit: im Übrigen hat der Refresh vermutlich nix an Ressourcen gekostet, man hat ja eigentlich nur die Speicherbausteine ausgetauscht und die TDP minimal erhöht.
Naja, Marketing, OEMs aufgleisen und Validierung kosten schon auch Geld. Sicher nicht so viel, aber dafür, dass man nichts geändert hat, hätte man die Dinger auch deutlich früher bringen können, das hätte für mich mehr Sinn ergeben.
Warum gibts eigentlich keine Radeon RX 6850 XT?
Wahrscheinlich war es selbst AMD zu blöd dazwischen noch eine weitere Karte zu platzieren.
Berniyh
2022-05-17, 08:06:58
Eig. sollte man das nichtmal Refresh nennen.
Da würde ich zustimmen. Am Chip selbst hat man ja gar nix geändert. Das wäre für mich Voraussetzung um es als Refresh zu bezeichen.
Der eigentliche RDNA2 Refresh kommt dann ja angeblich nächstes Jahr, dann in 6nm.
Teurer und das P/L sogar schlechter :D
Jo, ich schätze aber mal, die Straßenpreise werden das recht schnell regeln und die 50er Karten werden zu ähnlichen Preisen weggehen wie aktuell die 00er Karten.
Ist auch die Frage, ob von letzteren überhaupt noch nachproduziert wird. Vermutlich eher nicht, da ja auch RDNA3 vor der Tür steht.
Berniyh
2022-05-17, 08:08:19
Warum gibts eigentlich keine Radeon RX 6850 XT?
Weil die 6800 XT eh so wenig verkauft wird und es sich einfach nicht lohnen würde, gegenüber der 6950 XT.
BlacKi
2022-05-17, 08:35:08
Weil die 6800 XT eh so wenig verkauft wird und es sich einfach nicht lohnen würde, gegenüber der 6950 XT.
what? laut uvp macht die 69x0xt keinen sinn, weil überteuert. der grund warum man keine 6850xt bringt, ist weil es ein salvage chip ist, und man mit einem fullchip mehr geld machen kann. eigentlich ist die 6800xt die sinnvollste karte, und beim uvp preis ist sie die meistverkaufte karte. natürlich nicht für amd ;)
raumfahrer
2022-05-17, 09:04:45
Ich schließe mich der "Enttäuschend bis überflüssig"-Seite an. Hier sitze ich seit einiger Zeit und hoffe die 6700XT zeitnah bei 500 zu bekommen (bei der ganzen Sch&*ße aktuell in der Welt wohl völlig utopisch), da schmeißt AMD den Refresh auf den Markt, der prinzipiell nur die UVP saftig hochzieht. 6700 bei 500 ist gerade utopisch, 6750 auf 500 ist "eher friert die Hölle ein".
Sweepi
2022-05-17, 09:29:44
Warum gibts eigentlich keine Radeon RX 6850 XT?
Weil die 6800 kein Vollausbau ist, und weil die 6900 im Markt bleibt, welche durch eine 6850 noch mehr von unten bedrängt würde.
Denke der Refresh bringt AMD doch einiges:
Aufmerksamkeit beim Kunden durch News und Tests, erneuerte KomplettPCs, mehr Auslage im Schweinemarkt, ....
Aus technischer Sicht eher sehr lau im Vergleich zu "richtigen" Refreshes, wie nVidia GTX 285 / GTX 580 / RTX 2000 Super oder Intel 4x90 Devil's Canyon.
Berniyh
2022-05-17, 10:03:55
6700 bei 500 ist gerade utopisch
So weit weg ist die 6700 XT doch gar nicht mehr?
WedgeAntilles
2022-05-17, 10:05:10
6650XT: +4% mehr Leistung (full HD)
dafür +13% mehr TDP und +5% mehr Preis.
6750XT: +5,2% mehr Leistung (full HD)
dafür +9% TDP und +15% mehr Preis
6950XT: +5,7% mehr Leistung (4k)
dafür +12% mehr TDP und +10% Listenpreis.
Die 6950XT finde ich unterm Strich ok. Im High-End Bereich noch mal etwas mehr Leistung, logisch, dass da die TDP überproportional steigt. Ist aber noch halbwegs im Rahmen IMO.
Die 6650XT ist miserabel - in diesem Segment +4% Leistung mit +13% TDP? Mieser Deal.
Die 6750XT ist ebenfalls ein schlechter Deal. +15% Preisaufschlag für +5% Leistung ist nix.
Ergänzen die 50xt Modelle eigentlich die Palette? Oder ersetzen sie diese?
dildo4u
2022-05-17, 10:16:50
Ich vermute das die alten Karten verschwinden selbst die 6500XT hat den neuen Vram, vermutlich werden bald nur noch 18 GBPS als minium Produziert.
AMD verkauft z.b auf der Webiste nur noch 6750XT und 6950XT nix anderes wird mher im Shop gelistet.
etp_inxession
2022-05-17, 10:24:07
eigentlich ist die 6800xt die sinnvollste karte, und beim uvp preis ist sie die meistverkaufte karte. natürlich nicht für amd ;)
Die sinnvollste ist die 6800 non XT.
Die ist aber nur in geringen Mengen verfügbar und preislich absolut unattraktiv.
Gegenüber der 6900 XT ist eigentlich die 6800 XT vorzuziehen.
Aber der geringe Preisunterschied in den sowieso überteuerten letzten Monaten, hat viele zum Flagschiff greifen lassen.
Verkehrt macht man damit nichts.
Der Refresh ist nur um die Preise leicht anzuheben vor RDNA3
Rein Leistungstechnisch hätte es das nicht gebraucht.
Am Attraktivsten ist davon die 6750.
Aber zu teuer.
Sweepi
2022-05-17, 10:45:51
So weit weg ist die 6700 XT doch gar nicht mehr?
Die 3060 Ti und die 6700XT duempeln seit vglweise längerer Zeit bei >= 570.
Naja, wenn die erste Ada Vorstellung wirklich im Juli ansteht, erscheint Warten attraktiver.
Ich vermute das die alten Karten verschwinden selbst die 6500XT hat den neuen Vram, vermutlich werden bald nur noch 18 GBPS als minium Produziert.
AMD verkauft z.b auf der Webiste nur noch 6750XT und 6950XT nix anderes wird mher im Shop gelistet.
Möglicherweise gilt das für die MBA-Karten. Zum Refresh-Launch hat AMD explizit gesagt, dass alle Modelle am Markt bleiben (als Custom-Designs) - die langsam auslaufende RX 6600 XT ausgenommen.
MfG
Raff
dildo4u
2022-05-17, 11:25:41
Scheint aufs Modell anzukommen es gibt bei Geizhals schon mher 6750XT als 6800, AMD hat null Interesse 16GB für billig zu verkaufen.
Ja, das alte Problem zu geiler Salvage-Karten.
MfG
Raff
Leonidas
2022-05-17, 13:43:48
Richtig. 6800 & 6800XT würde nur dann, wenn Chips in Hülle & Fülle da waren, auf ihren Listenpreisen verkauft werden. Aber zu Zeiten der Chip-Knappheit hat AMD natürlich lieber Navi 21 XTX ausgeliefert - da gab es dann kaum irgendwelche Lieferungen zu Navi 21 XL/XT. Deswegen waren die Preise zur 6800 & 6800XT so abgehoben und deswegen kommen die nun erst ganz langsam zurück.
Lehdro
2022-05-17, 14:45:35
Bei den TDP Betrachtungen, besonders zur 6950XT würde ich noch beachten, dass die MBA wie auch die Founders Editionen durchaus sparsamer sein können, trotz selber "TDP/TBP":
Bei AMD wird die TGP priorisiert, alles danach ist maximal vom Board abhängig, auf dem RAM und GPU verpflanzt sind. Ob das Board "sparsam" ist oder nicht, ist für die GPU quasi egal, da nach TGP geregelt wird, die Verluste des Boards werden komplett vernachlässigt. Kann also sein dass die AMD TDP/TBP nur für die MBA Karte technisch passend ist und hochgezüchtete Partnerkarten zwar dieselbe TGP fahren können, aber massiv abweichende TDP/TBP damit haben. Dafür spricht das 6800XT und 6900XT sowie die OEM LC sich da ziemlich genau einsortiert haben.
Bei NV wird TDP priorisiert, was "sparsame" Boards schneller macht, trotz selber TDP (siehe 3090 Ti Founders vs. Partnermodelle (https://www.pcgameshardware.de/Geforce-RTX-3090-Ti-Grafikkarte-278115/Tests/FE-Review-Founders-Edition-kaufen-Benchmarks-1392446/3/#a3)). Wenn weniger auf dem Board "verschwendet" wird, bleibt mehr von der TDP für GPU und Speicher.
Ansonsten finde ich den Refresh eher so lalala. Die 6950XT ist "nett", aber imo nicht richtig zu Ende gedacht. Entweder als Preishammer zur selben UVP der 6900XT mit der derzeitigen technischen Ausgestaltung, oder halt einfach in den sauren Apfel beißen und komplett "full bore" gehen: TGP auf 300W, Taktraten > 2.5 GHz, 19 GT/s Speicher und eine AiO als Werksausstattung. So wirkt das wie irgendetwas dazwischen und kann sich kaum behaupten, weder nach oben noch nach unten. Immerhin stimmen die Straßenpreise so halbwegs.
Die 6750XT ist technisch am rundesten, allerdings hat die auch die höchste UVP "Preiskorrektur" bekommen...naja, immerhin bleibt die 6700XT offiziell im Markt. Straßenpreise werden hier entscheidend sein, da besteht also Potenzial.
Die 6650XT sitzt hingegen richtig unnötig im Angebot. Warum? Die 6600XT hatte schon keinen Gegner, deutlich schneller als eine 3060 und weit weg von einer 3060 Ti. Der schnellere Speicher und das Performanceplus ist zwar nett, aber irgendwie erst recht nicht den Aufwand wert. Dazu noch die Verwirrung um den Fakt ob die 6600XT nun aus dem Portfolio fliegt oder nicht?! Komische Karte, wie gesagt.
Berniyh
2022-05-17, 15:09:59
Das mit der TDP ist doch eh Quark, denn die meisten Custom Karten haben ja eh schon ein Hersteller BIOS mit höherer TDP.
Manche der XTXH Karten sind ja daher auch mit höheren Taktfrequenzen angegeben als die 6950XT jetzt.
Lehdro
2022-05-17, 16:23:46
Das mit der TDP ist doch eh Quark, denn die meisten Custom Karten haben ja eh schon ein Hersteller BIOS mit höherer TDP.
Manche der XTXH Karten sind ja daher auch mit höheren Taktfrequenzen angegeben als die 6950XT jetzt.
CB und PCGH haben die TGP der Customs auf Stock Werte runtergedreht und erhalten trotzdem mehr TDP als AMD offiziell angibt. Und Leo hat das zwangsweise erst einmal so übernommen. Dass das nicht ganz so einfach geht wollte ich einfach angemerkt haben, da die Platinen doch erheblich anders sind.
Leonidas
2022-05-17, 16:35:30
Ist ein Punkt, den ich nicht so auf dem Radar hatte, aber der gut als Erklärung taugt. Mal schauen, ob sich dass irgendwann auf Basis einer AMD-Referenz mal nachprüfen läßt.
jorge42
2022-05-17, 17:02:52
och mann, was ist das aktuell für ein Quark mit den Grafikkarten. Eine 6700xt ist kostet jetzt so um die 580 EUR, ist aber in WQHD grad mal 25% schneller als meine damals billigere 5700xt...Eine 6750xt ist ja beabsichtigt nochmal teurer. Eine 6800xt ist unverhältnismäßig teuer (die Gründe wurden hier ja genannt). Also denkbar dämlich jetzt zu kaufen, wenn man es nicht wirklich braucht. Also den Refresh mal auslassen und auf die Zukunft hoffen.
raumfahrer
2022-05-17, 21:46:45
So weit weg ist die 6700 XT doch gar nicht mehr?
Ich möchte das nicht generell ausschließen. Aber in Anbetracht des Preisgefüges, das man aktuell sieht, des bisherigen Preisverlaufs und des aktuelle Euro-Kurses gehe ich davon aus, dass sich die 6700 jetzt erstmal für einen Monat oder länger bei ~550-600 einquartiert. Und mit jedem Tag kommt die nächste Generation näher. Im Sommer interessiert mich die Karte auch für 500 nicht mehr.
Gast Ritis
2022-05-18, 08:36:55
Ich versteh die Leute echt nicht mehr.
Wir sind doch in einer Phase von Leistungszuwächsen, die über die Anforderungen der Software im Mainstream deutlich hinaus gehen.
Das einzig Richtige ist momentan doch nur dann eine GPU zu kaufen, wenn es die alte nun wirklich nicht mehr tut. Also in der Regel kaputt ist oder schon mal 2-3 Generationen zurück liegt.
Mehr Auswahl ist in so einem Markt bestens und wird mittelfristig helfen die Preise zu drücken. ;)
Wer hingegen nur fürs Ego neue GPUs kauft soll sich über Preise nicht beschweren.
jorge42
2022-05-18, 09:35:17
deswegen kauf ich nicht und bleib auch "nur" bei WQHD, wobei ich schon Lust auf UWQHD hätte. Mir geht der "schmale" 16:9 Monitor auf den Senkel aber unter 1440p will ich dann auch nicht mehr.
Berniyh
2022-05-18, 10:32:46
Ich möchte das nicht generell ausschließen. Aber in Anbetracht des Preisgefüges, das man aktuell sieht, des bisherigen Preisverlaufs und des aktuelle Euro-Kurses gehe ich davon aus, dass sich die 6700 jetzt erstmal für einen Monat oder länger bei ~550-600 einquartiert. Und mit jedem Tag kommt die nächste Generation näher. Im Sommer interessiert mich die Karte auch für 500 nicht mehr.
Also zumindest die 6900er haben jetzt noch mal einen Sprung nach unten gemacht, ich glaube da wird in den nächsten Wochen schon noch mal was passieren.
Letztendlich kann man auch ständig auf die nächste Gen warten, irgendwann solltem an einfach committen. ;)
deswegen kauf ich nicht und bleib auch "nur" bei WQHD, wobei ich schon Lust auf UWQHD hätte. Mir geht der "schmale" 16:9 Monitor auf den Senkel aber unter 1440p will ich dann auch nicht mehr.
Sooo krass ist der Belastungschritt für die GPU von WQHD auf UWQHD auch nicht, kannst du bei den PCGH-Benchmarks sehen (UWQHD stets voll vertreten). Ultra HD knüppelt hingegen ein ganzes Eck mehr. Was bei Ultrawide eher abtörnt, ist der lieblose Umgang seitens einiger Entwickler - es gibt immer noch Spiele, die UWQHD nicht ordentlich unterstützen, weil's das an den Konsolen nicht gibt. Elden Ring. *hust*
MfG
Raff
jorge42
2022-05-18, 11:47:19
Sooo krass ist der Belastungschritt für die GPU von WQHD auf UWQHD auch nicht, kannst du bei den PCGH-Benchmarks sehen (UWQHD stets voll vertreten). Ultra HD knüppelt hingegen ein ganzes Eck mehr. Was bei Ultrawide eher abtörnt, ist der lieblose Umgang seitens einiger Entwickler - es gibt immer noch Spiele, die UWQHD nicht ordentlich unterstützen, weil's das an den Konsolen nicht gibt. Elden Ring. *hust*
MfG
Raff
ja schon richtig. Aber es wird ja behauptet, dass meine 5700Xt ja keine WQHD Karte sei (kann ich nicht nachvollziehen) da wird das mit UWQHD natürlich nicht besser. Der stiefmütterliche Umgang ist natürlich doof, schön wäre es wenn man dann auf einem 21:9 Display einfach native 1440p auf 16:9 laufen lassen könnte und an den Seiten bleibt es eben schwarz. Kenne mich aber nicht damit aus, weiß also nicht ob das sogar schon aktuell möglich ist. Aber tatsächlich arbeite ich inzwischen an meinem Rechner viel mehr als ich dran spiele.
Lehdro
2022-05-19, 11:21:02
Ist ein Punkt, den ich nicht so auf dem Radar hatte, aber der gut als Erklärung taugt. Mal schauen, ob sich dass irgendwann auf Basis einer AMD-Referenz mal nachprüfen läßt.
TPU hat dich!
In our other RX 6950 XT reviews, we noticed that the power consumption was much higher than what we saw on the RX 6900 XT—like 100 to 150 W higher. Supported by recent NVIDIA history which saw the power limit dialed up to unlock additional performance on the RTX 3090 Ti, we assumed it just came down to how the RX 6950 XT works. In its reviewer's guide, AMD mentions "335 W Board Power," which we shrugged off as fantastical after seeing the custom-design power consumption numbers. Oh, how wrong we were, as the reference design actually runs at promised power levels and AIBs are to blame for dialing up the power limits considerably to unlock additional factory overclocking performance. The RX 6950 XT in this review is fairly gentle in its power usage with 340 W during gaming, a 40 W increase over the RX 6900 XT. That's not unreasonable at all and much lower than the 450 W measured on the RTX 3090 Ti.
https://www.techpowerup.com/review/amd-radeon-rx-6950-xt-reference-design/35.html
~340W. Also doch noch besser und nur minimale Abweichungen von der AMD TDP.
WedgeAntilles
2022-05-19, 11:27:22
Zum Thema Stromverbrauch messen hat IgorsLab vorgestern einen Artikel gebracht:
https://www.igorslab.de/grafikkarten-und-deren-verbrauch-auslesen-statt-aufwaendig-messen-warum-das-bei-nvidia-einfach-ist-und-bei-amd-nahezu-unmoeglich/
Demnach ist die Stromaufnahme bei AMD höher, als die Tools auslesen (weil da nicht alles erfasst ist).
Blöde Frage, aber kann man als Tester nicht den Stromverbrauch des kompletten PCs messen?
Wenn die Erfassung des Stromverbrauchs der GraKa so kompliziert ist, wäre es nicht sinnvoll, zwei identische PCs aufzubauen und jeweils nur die GraKa abweichend zu haben?
Und dann messe ich, was der gesamte PC an Strom braucht?
dildo4u
2022-05-19, 11:32:50
Selbst die 340 sind doch zu viel ich meine das war doch das Fazit als die 3090 rauskam jetzt ist es aufeinmal ok, damit hat man exakt die selbe Effizens wie Nvidias 3080 Ti.
https://www.computerbase.de/2022-05/amd-radeon-rx-6650-xt-6750-xt-6950-xt-review-test/3/#abschnitt_energieeffizienz_in_fps_pro_watt
Lehdro
2022-05-19, 11:40:11
Blöde Frage, aber kann man als Tester nicht den Stromverbrauch des kompletten PCs messen?
Wenn die Erfassung des Stromverbrauchs der GraKa so kompliziert ist, wäre es nicht sinnvoll, zwei identische PCs aufzubauen und jeweils nur die GraKa abweichend zu haben?
Und dann messe ich, was der gesamte PC an Strom braucht?
Ist halt quatsch, weil du dir tonnenweise Ungenauigkeiten reinholst. Als Beispiel mit normaler physischer Messung an der GPU:
GPU A rendert 90 fps und braucht 300W. GPU B rendet 100 fps und braucht 350W.
Jetzt sollte man denken dass sich die 50W Mehrverbrauch auch sehr ähnlich im Systemverbrauch niederschlagen:
GPU A System braucht 420W. GPU B System braucht 450W.
Mögliche Auflösung: GPU A verbraucht "mehr CPU Power" (siehe Tests bei Igor) (https://www.igorslab.de/vor-dem-test-des-ryzen-7-5800x3d-noch-ein-interessanter-ueber-kreuz-test-wenn-der-ryzen-die-geforce-mag-und-intels-core-lieber-die-radeon/), wodurch die CPU mehr zieht, obwohl weniger FPS bei rauskommen, was Teile des Mehrverbrauchs von GPU B negiert.
Oder aber: GPU A System braucht 420W, GPU B System braucht 500W.
Mögliche Auflösung: GPU B rendert mehr Frames, ergo hat auch die CPU mehr zu tun.
Und nun liegt es an dir zu erklären was nun wo auftritt ohne das jedes mal aufwendig herauszutesten. Viel Spaß. :redface:
TL; DR: Systemverbräuche müssen gar nichts über den Grafikkartenstromverbrauch aussagen. Sie sind nur sinnvoll für Ermittlung der Netzteildimensionierung des Gesamtsystems.
Selbst die 340 sind doch zu viel ich meine das war doch das Fazit als die 3090 rauskam jetzt ist es aufeinmal ok, damit hat man exakt die selbe Effizens wie Nvidias 3080 Ti.
https://www.computerbase.de/2022-05/amd-radeon-rx-6650-xt-6750-xt-6950-xt-review-test/3/#abschnitt_energieeffizienz_in_fps_pro_watt
Darum geht es aber gar nicht. Es geht um den Fakt das Stock TGP auf einem non-Ref Board eben nicht Stock TBP/TDP ist, zumindest nicht bei AMD. Bei NV haut das schon eher hin, siehe was Wedge gepostet hat. Kommt halt davon wenn AMD nach TGP (nur GPU + RAM) regelt und NV nach TDP (komplette Power in, aber ohne 3.3V).
WedgeAntilles
2022-05-19, 11:46:27
Ist halt quatsch, weil du dir tonnenweise Ungenauigkeiten reinholst. Als Beispiel mit normaler physischer Messung an der GPU:
GPU A rendert 90 fps und braucht 300W. GPU B rendet 100 fps und braucht 350W.
Jetzt sollte man denken dass sich die 50W Mehrverbrauch auch sehr ähnlich im Systemverbrauch niederschlagen:
GPU A System braucht 420W. GPU B System braucht 450W.
Mögliche Auflösung: GPU A verbraucht "mehr CPU Power" (siehe Tests bei Igor) (https://www.igorslab.de/vor-dem-test-des-ryzen-7-5800x3d-noch-ein-interessanter-ueber-kreuz-test-wenn-der-ryzen-die-geforce-mag-und-intels-core-lieber-die-radeon/), wodurch die CPU mehr zieht, obwohl weniger FPS bei rauskommen, was Teile des Mehrverbrauchs von GPU B negiert.
Oder aber: GPU A System braucht 420W, GPU B System braucht 500W.
Mögliche Auflösung: GPU B rendert mehr Frames, ergo hat auch die CPU mehr zu tun.
Und nun liegt es an dir zu erklären was nun wo auftritt ohne das jedes mal aufwendig herauszutesten. Viel Spaß. :redface:
TL; DR: Systemverbräuche müssen gar nichts über den Grafikkartenstromverbrauch aussagen. Sie sind nur sinnvoll für Ermittlung der Netzteildimensionierung des Gesamtsystems.
Danke für die Hinweise!
Stimmt, das ist dann wirlich eine unsinnige Methode.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.