Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: GeForce RTX 5080 mit 360W TDP, GeForce RTX 5090 mit 575W TDP
Leonidas
2025-01-03, 13:35:20
Link zur News:
https://www.3dcenter.org/news/geruechtekueche-geforce-rtx-5080-mit-360w-tdp-geforce-rtx-5090-mit-575w-tdp
Iscaran
2025-01-03, 13:51:57
Einfach nur irre - mit solchen Entwicklungen graben sich die GPU-Hersteller aber imho selbt ein Loch.
Für mich kommen GPUs mit >225 W einfach nicht in Frage. Dazu kommt noch mein Preislimit bei ~300 € und definitiv <400 €.
Bis dahin laufen meine 6600 und 6700 in den 2 Rechnern einfach weiter bis es nicht mehr geht.
Gibt also wieder weniger GPU-Umsatz (von mir) dadurch.
KooLP
2025-01-03, 14:27:20
Leider macht es die Konkurrenz nVidia ausgerechnet in dieser Grafikkarten-Generation mittels des eigenen Nichterscheinens im HighEnd- und Enthusiasten-Segment sehr einfach, eine solche Strategie der mageren Zugewinne, welche zudem durch höhere TDP-Werte erzwungen werden, tatsächlich durchzuziehen. AMD dürfte vermutlich dreimal in die Tischkante beißen, dass man ausgerechnet in dieser nVidia-Generation selbst nur ein Mager-Portfolio anbieten kann.
Es würde trotzdem primär NV gekauft mMn, ganz egal was AMD macht. Daher ist es nachvollziehbar aus AMD Sicht, HighEnd / Enthusiast Segment aussen vor zu lassen. :ulol:
MiamiNice
2025-01-03, 14:28:59
Die GeForce RTX 5090 würde hingegen mit einem Powerlimit von 575 Watt antreten, was bei der FE und sich an deren Daten haltende Hersteller-Modelle bis auf 600W erhöht werden kann.
Das wird so nicht kommen. 25 Watt reichen nicht um OC Versionen zu bauen. Gehe davon aus, dass die dicken Karten mit 2 Steckern und 680 -720 Watt max. PT kommen, incl. der 20 - 25% mehr PT per PT Regler.
ChaosTM
2025-01-03, 14:42:39
Karten mit 2 Steckern kommen sicher. Man kann zwar angeblich bis zu 600 über den Stecker alleine jagen, aber dann ist die Kokelgefahr schon deutlich erhöht. Muss man sich nicht antun.
Der Sweetspot wird wieder deutlich drunter liegen, aber manche reizen ihre Karten halt gerne voll aus. Machte ich früher auch..
Momentan braucht die 4090er kaum über 370 Watt, ein paar PT Spiele mal ausgenommen.
Denniss
2025-01-03, 15:03:44
einfach nur verrückt wa da für Watt durchgejagt werden. Dann noch sowas wie einen 14900KS dazu und die 1kW werden mit der anderen Peripherie gerissen.
Platos
2025-01-03, 15:21:51
Einfach nur irre - mit solchen Entwicklungen graben sich die GPU-Hersteller aber imho selbt ein Loch.
Für mich kommen GPUs mit >225 W einfach nicht in Frage.
Das ist auch so etwa mein Maximum, aber man darf nicht vergessen, dass man auch mit 320Watt oder 360Watt leben kann, solange es dann nach dem Untervolten so bei 200-250Watt ist. Der "Auslieferungszustand" ist nicht das, was man dann selber nutzen muss.
Wenn die Effizienz stimmt, dann hätte ich aber auch nichts gegen 600Watt (in der Theorie), aber in der Praxis macht dann der Sommer ein Strich in die Rechnung (man kann ja seit Lovelace nicht mehr so krass Untervolten) bzw. spätestens dann das Netzteil.
Aber die Effizienz wird ja vermutlich nicht viel besser sein mit Blackwell...
Aber für mich sowieso nicht interessant. Für mich wirds erst mit nem neuen Fullnode interessant wegen der Effizienz und auch wegen der Mehrperfomance.
Daredevil
2025-01-03, 15:27:13
Ich habe da so ein paar Flashbacks wie zur 4090, das man hier gegebenenfalls strategisch Informationen leaked, damit der Kunde später eher zufrieden ist und automatisch mehr Kohle zahlt.
Wenn die Erwartung folgende ist:
4090 +50%
2000€
450w
Die Gerüchte aber zeigen:
4090 +80%
3500€
575w
Empört das den gemeinen Gamer mit zu viel Geld natürlich.
Wenn die Realität und das fertige Produkt dann aber so aussieht:
4090 +60%
2500€
500w
Fühlen manche eine Erleichterung, obwohl es deutlich negativer als die zugrunde liegende Erwartung gewesen ist. Einfach nur, weil man die übertriebenen Leaks als neue Realität angenommen hat und es dann nicht so "schlimm war wie befürchtet", man erinnert sich dann aber nicht mehr daran, was man selbst erwartet hat und Kunden zahlen deswegen sogar mehr als sie eigentlich wollten, weil es manchen nun als "Schnäppchen" erscheint. Leaks formen die psychologischen Erwartungen und diese können durch Firmen gesteuert werden.
Sardaukar.nsn
2025-01-03, 15:27:35
Immer dieses Gejammer. Früher gab es halt 2x und 3x SLI im High End. Heute passt das auf eine Karte.
MiamiNice
2025-01-03, 15:35:06
einfach nur verrückt wa da für Watt durchgejagt werden. Dann noch sowas wie einen 14900KS dazu und die 1kW werden mit der anderen Peripherie gerissen.
Die 1k habe ich schon mit dem 13900k und 3090 und unlimited PT Bios „gerissen“. Gemessen an der Steckdose.
5090 mit freiem PT, schätze ich auf 800 Watt, 14900 400 Watt, Rest ca. 150 Watt. So ein System wäre bei um 1300 Watt voll OC in synthetischen Benches.
Mit einem Ryzen/Core200 und voll OC, ca. 200 Watt weniger (9800x3d braucht knapp unter 200 Watt mit voll OC).
Leonidas
2025-01-03, 15:45:45
Das wird so nicht kommen. 25 Watt reichen nicht um OC Versionen zu bauen.
Zweifelsfrei. Die max. Boardpower gilt nur für die FE, die Hersteller können machen was sie wollen.
Altehardware
2025-01-03, 16:02:32
nvidia gibt strenge vorgaben vor da haben die aib keine Wahl
lediglich bei der Kühllösung sind aib noch frei. Die Zeiten wo ein aib Modelle mal locker 20% schneller war sind vorbei das maxed sind 2-5% das ist chipgüte
Daredevil
2025-01-03, 16:11:27
Das kommt aber nicht unbedingt nur darauf an, was Nvidia vorgibt, sondern ob die Kisten Taktlimitiert oder eben Power limitiert sind. Bei den Dickschiffen ist es in der Tat öfter mal so, das man die aufgrund der Power Limitierung eben nicht komplett ausfahren kann. Und wenn wir uns bei 300-400w schon in Regionen bewegen, wo ein "normales" Gehäuse komplett überfordert ist mit dem abführen der Wärme, wird das bei 500w+ auch nicht anders sein.
Da muss sich Nvidia also was ordentliches ausdenken ( 4slot+ DHE ), kann aber auch nicht zaubern. Wenn man doppelt so viele Einheiten spendieren will, brauchen die Saft und das fördert die Mehrperformance bei Power Limitierungen, sofern man das natürlich vom DIE abgeführt bekommt. :D
Ich glaube aus dem Grund auch nicht auf ootb 500w+ Verbrauch. Das kann man dann in einem "Titan Mode" meinetwegen freischalten und die Kiste jault auf, den 0815 Gamer aus gut betuchtem Haus holt man dabei nicht ab, weil der bei so einer Hitzenentwicklung nicht nur Geld haben muss, sondern auch ein wenig Ahnung von Thermodynamik und Bastelei, das haben die meisten Gamer eher nicht, sonst hätten manche ja nicht 12RGB Lüfter im Gehäuse.
Rabiata
2025-01-03, 16:43:07
Da bin ich mal gespannt, wie die Blackwell Mittelklasse gegenüber Navi4 da stehen wird in Sachen Effizienz. In den letzten Jahren waren es AMD, die ihre Karten bis zur Kotzgrenze hochgetaktet haben, jetzt sieht es so aus als ob Nvidia folgt.
Persönlich kann ich das Ganze entspannt bobachten, meine Grafikansprüche sind nicht so hoch und die RX 6600 wird es noch ein paar Jahre lang tun.
Altehardware
2025-01-03, 16:50:18
Das ist leicht
rx9060 vs rtx5060
rx9060xt vs rtx5070
rx9070 vs rtx4070super
rx9070xt vs rtx4070ti
Lehdro
2025-01-03, 18:47:15
einfach nur verrückt wa da für Watt durchgejagt werden. Dann noch sowas wie einen 14900KS dazu und die 1kW werden mit der anderen Peripherie gerissen.
Die 1k habe ich schon mit dem 13900k und 3090 und unlimited PT Bios „gerissen“. Gemessen an der Steckdose.
Anfänger :wink:
Die 1k an der Steckdose habe ich schon mit einem 940 BE + GTX 480 gerissen - mit einer einzigen GPU! Regulär im 24/7 stable OC waren um die 750W drin - was übrigens so ziemlich dasselbe ist als wenn man mein derzeitiges System mal so richtig fordert. Nothing has changed, wir kriegen nur viel mehr ootb geliefert. Und anders als damals ist das heute sogar mit Luftkühlung möglich.
ChaosTM
2025-01-03, 18:54:56
Anfänger :wink:
Die 1k an der Steckdose habe ich schon mit einem 940 BE + GTX 480 gerissen - mit einer einzigen GPU! Regulär im 24/7 stable OC waren um die 750W drin - was übrigens so ziemlich dasselbe ist als wenn man mein derzeitiges System mal so richtig fordert. Nothing has changed, wir kriegen nur viel mehr ootb geliefert. Und anders als damals ist das heute sogar mit Luftkühlung möglich.
Die Karte hatte den Beinamen "Thermi" definitiv nicht wergen der Effizienz :D
Exxtreme
2025-01-03, 19:34:27
Einfach Framelimiter einschalten. Damit kann man den Stromverbrauch senken. :)
crnkoj
2025-01-03, 19:52:03
gleich mal das Serasonic 2200W PSU kaufen ^ ^
Duran05
2025-01-03, 19:52:54
Was bringt das? 120 Hz Monitor stellt doch auch weiterhin 110fps in 4K da und damit läuft es auf Maximum.
Und das ist noch niedrig gegriffen, wir reden von 144 - 240 Hz am Markt.
Die Entwicklung ist einfach übel. Den Hersteller interessiert es nicht wer am Ende latzt aber die Stromrechnung kommt bestimmt.
Die Wärme ist dann der nächste Faktor, die Luftkühler werden langsam zu eng.
Fand die 3090 schon vom Energiewert schlecht aber manche Grafikfreunde sehen es halt nicht.
Wenn ihr es schafft 1 KWh zu verballern, Glückwunsch, liegt über meinen Jahreshaushalt (der wäre 6-8 am Tag).
Radeonfreak
2025-01-03, 19:55:17
Was bringt das? 120 Hz Monitor stellt doch auch weiterhin 110fps in 4K da und damit läuft es auf Maximum.
Und das ist noch niedrig gegriffen, wir reden von 144 - 240 Hz am Markt.
Hä? Wenn man auf 100fps cappt dann kommen nur 100fps. Kühler, leiser, Stromsparender.
Duran05
2025-01-03, 19:58:44
Hä? Wenn man auf 100fps cappt dann kommen nur 100fps. Kühler, leiser, Stromsparender.
Gibt es jemanden der das macht?
Unter den Enthusiasten (>1500 €)? Ich halte das für ein Ausschlusskritierum.
60 oder 100fps stelle ich nur ein wenn ich irgendwelche Management-Menüdinge spiele.
Und am Markt sind viele dabei die haben auch keinen Plan dass das den Energieverbrauch reduziert. Frag mal die typische "Streamerin".
ChaosTM
2025-01-03, 20:10:46
Naja, zumindest reduziere ich die maximale Bildrate auf die des Monitors, weil 1000fps im Menü niemand wirklich braucht und das auch oft, wenn auch nicht immer, die Flackerei eliminiert.
Sardaukar.nsn
2025-01-03, 20:18:36
Ja, bei meinem 4k/120 Bildschirm ist im Treiber auf 117fps gecappt. -3 FPS war mal ein Tipp bei Blurbusterers wegen dem G-Sync bzw. VRR. Ich habe auch mit Suplenfiepen bisher nie Last.
Daredevil
2025-01-03, 21:35:53
Gibt es jemanden der das macht?
Unter den Enthusiasten (>1500 €)? Ich halte das für ein Ausschlusskritierum.
60 oder 100fps stelle ich nur ein wenn ich irgendwelche Management-Menüdinge spiele.
Und am Markt sind viele dabei die haben auch keinen Plan dass das den Energieverbrauch reduziert. Frag mal die typische "Streamerin".
Wer heutzutage nicht ordentlich seine Framerate auf Basis seiner Monitors anpasst ( VSync + Gsync ), fliegt halt aus der GSync Range raus, insofern sollte das eigentlich Standard sein. 300fps auf einem 120HZ Monitor kannste ja beim Benchen machen, im Real World Case fährste halt auch nicht mit 100 im dritten Gang auf der Autobahn, das ist doch quatsch. Klar verbrauchen kleinere Karten Stock weniger, die leisten aber auch nichts und lösen nicht das gleiche Problem, welches eine 3090/4090/5090 versucht zu lösen, nämlich 4K+ Gaming ohne Kompromisse.
Zudem kommt jedes Jahr wieder immer der gleiche falsche Kommentar, dass die dicksten Nvidia GPUs ineffizient sind, während das Gegenteil der Fall ist.
Wenn du Performance/Watt möchtest, sind die dicksten Karten immer die besten, weil du sie deutlich effizienter betreiben kannst als eine kleinere Karte, die mit der Voltkurve viel höher agieren muss. Das kannst du durch einen Limiter machen, falls deine CPU eh nicht zu lahm ist oder du setzt selber Hand an.
100 Einheiten mit jeweils 600Mhz > 50 Einheiten mit 1000Mhz.
Wer Lust hat macht sich mehrere Profile und hat nen ziemlich gutes Leben, man hat nicht nur die modernste Karte, sondern gleichzeitig auch die schnellste UND effizienteste. Dafür zahlt man halt einen Preis. War mit der 2080ti so, mit der 3090 ebenso, natürlich auch mit der 4090 und mit einer 5090 wird das nicht anders sein. Undervolted läuft die Karte dann halt irgendwann passiv, wenn der Kühlkörper 3kg wiegt, ist doch auch ein netter Nebeneffekt.
Hier mal als Referenz die 4090: https://www.computerbase.de/2022-10/nvidia-geforce-rtx-4090-review-test/5/#abschnitt_rtx_4090_vs_rtx_3090_ti_bei_450_350__300_watt
Du kannst für 6% Leistung die 150w in den Raum werfen, du kannst es aber auch lassen. Und eine 4090 bei 300w ist immer noch 50% schneller als eine 3090ti bei 450w.
Eine 5090 könnte spekulativ also auch bei irgendwas um die 200w betrieben werden und damit bekommst du FullFlat 4090 Leistung, das kann keine andere Karte auf diesem Planeten. Die dicken Karte bekommst du allerdings schwierig <100w, weil der Sweet Spot hier deutlich höher ist und die Einheiten ein Minimum an Saft brauchen, aber damit bekommste schon gut Pixel weggeschubst.
https://s20.directupload.net/images/250103/5lihzq8y.png
Duran05
2025-01-03, 21:47:27
Man "zahlt" zwei oder drei Preise.
Die Wärmeentwicklung, den Stromverbrauch aus Tasche UND den viel zu hohen Kaufpreis der Karte. Das macht es ziemlich unattraktiv.
Die 2080 Ti war eben auch kein solcher Schlucker und eignet sich daher nicht als Vergleich. Selbst für heutige Verhältnisse ist die handzahm und du kannst noch damit herumhantieren.
Was gibt es denn vergleichbares was dieses Preisniveau nicht deutlich reißt ? Jetzt kommt ein großes Luftloch. :smile:
Wenn 6 oder 10 % dir egal sind kannst du ja auch eine andere Karte kaufen. Ich identifiziere mich leider nicht mit solchen Gamern.
Daredevil
2025-01-03, 21:55:27
Wenn du kein Geld hast, kauf sie dir nicht, denn niemand zwingt dich dazu.
Wenn dir Effizienz und Kosten wichtig sind hol dir nen MacMini M4, denn im Gegensatz zu dem ist jede andere Hardware eine unnötige ineffiziente Energieschleuder aus dem letzten Jahrtausend. Windows Hardware ist bei den Kernpunkten, die dir offenbar wichtig sind, die völlig falsche Wahl. Buch dir dazu Geforce NOW und fertig ist das günstigste Gaming System der Welt.
Und stell doch bitte deine Meinung nicht als allgemeingültig dar. Für manche ist dieses Paket genau so wie es ist ziemlich attraktiv, sonst würde es diese Preise nicht geben und Nvidia würde den Kram gar nicht bauen. Mit Rechenleistung verdient man unter anderem auch Geld und da kann es nicht schnell genug sein, oder manchmal nicht effizient genug bei dauerhafter Belastung. Gerade in Zeiten von KI gilt das noch mehr als je zuvor.
Wenn 6 oder 10 % dir egal sind kannst du ja auch eine andere Karte kaufen. Ich identifiziere mich leider nicht mit solchen Gamern.
Es gibt aber keine Karte, die 10% unter einer XX90 ist mit genügend VRAM. (:
ChaosTM
2025-01-03, 22:04:22
Die dicken NV Karten sind momentan die mit Abstand effizientesten*, keine Frage.
4080er und 90er nehmenm sich da kaum was, aber das kostet natürlich auch dementsprechend.
*Leistung/Watt
4K Gaming "ohne Kompromisse", was immer das auch genau sein soll, ich nehme an "Nativ" mit PT frei von jedwedem Upscaling/FG ist gemeint, liegt noch in ferner Zukunft.
Siehe Wukong, 77 etc..
Duran05
2025-01-03, 22:04:28
@Daredevil
Damit hast du gut beschrieben warum es Sinn machen würde eine GeForce 4085 oder 5075, 5085 zu bringen.
Im Preis runter, im Verbrauch runter.
Meiner Meinung nach ist das schon so grenzwertig das ich hier nach Regulierung rufe, die Karten sollten in Effizienzklassen wandern und wer darüber liegt zahlt für den Mehrverbrauch als Firma. :smile:
Für den Gaming Markt wird es in erster Linie auch schwer hohe Quoten zu erreichen - demnach ist die praktische Relevanz nicht wirklich hoch.
Als Softwareentwickler muss man beschämt sein für Karten zu entwickeln die sich maximal 2 % des Käuferkreises leisten können (/wollen).
Daredevil
2025-01-03, 22:19:12
Die dicken NV Karten sind momentan die mit Abstand effizientesten*, keine Frage.
4080er und 90er nehmenm sich da kaum was, aber das kostet natürlich auch dementsprechend.
*Leistung/Watt
4K Gaming "ohne Kompromisse", was immer das auch genau sein soll, ich nehme an "Nativ" mit PT frei von jedwedem Upscaling/FG ist gemeint, liegt noch in ferner Zukunft.
Siehe Wukong, 77 etc..
Deswegen schrieb ich ja auch es ist der "Versuch".
Ich habe seit Turing nen 4K120 Screen und den kann ich zwar mit jeder dicken NV GPU gut bedienen, aber sorgenlos ist man je nach Feature halt nicht. Irgendwo kommt irgendwann mal der Moment, wo ne 1500€+ GPU zuglangsam ist und das Problem ist die Auflösung. :D
Wird es dieses mal perfekt? Nope. Kommt man näher? Jep.
@Daredevil
Damit hast du gut beschrieben warum es Sinn machen würde eine GeForce 4085 oder 5075, 5085 zu bringen.
Im Preis runter, im Verbrauch runter.
Natürlich ist es schön, wenn Lücken geschlossen werden damit jeder für seinen Zweck das richtige findet, für mich z.B. sind 16GB einfach schon zu wenig, egal wie schnell ne Karte ist. Offenbar werden "knapp unter HighEnd" Karten aber auch nicht sonderlich gut angenommen, mal ein Auszug aus dem Stream Survey, wie die Verteilung ist. Sie ist auf #30, was für so eine teure Kiste schon enorm gut ist.
https://store.steampowered.com/hwsurvey/videocard/
4060: 4,86%
4070: 3,3%
4080: 0,92%
4080S: 0,97%
4090: 1,18%
7900XTX: 0,51%
Die 4090 hat nen doppelt so hohen Marktanteil als die P/L stärkere 7900XTX und verkaufte sich trotzdem besser als die günstigeren Chips drunter. Die Dinger sind noch zu billig, people pay the prices. The more you buy the more you save. :D
Und der 450w Stempel hat offenbar auch kaum jemanden abgeschreckt.
nvidia gibt strenge vorgaben vor da haben die aib keine Wahl
lediglich bei der Kühllösung sind aib noch frei. Die Zeiten wo ein aib Modelle mal locker 20% schneller war sind vorbei das maxed sind 2-5% das ist chipgüte
Nvidia reizt doch mittlerweile so nah ans Takt- und Voltlimit bei den FEs, dass auch eine wesentlich höhere TDP fast nix mehr bringen würde.
Mich wundert aber, dass die Leute so geil auf die FEs sind, das sind die größten Fiep- und Surrrasseln unter Last.
Gerade bei Ada, wo schon die minimale Lastspannung sehr hoch ist, bekommt man die selbst mit Undervolten nicht mehr erträglich. Gut, manche Karten von Asus sind noch schlimmer.
ChaosTM
2025-01-03, 22:44:39
Den "Versuch" hab ich tatsächlich überlesen, sorry.
Und ich finde das Spielerlebnis, das wir momentan mit DLSS und FG erzielen eigentlich recht zufriedenstellend, aber ich halte die 4x Lupe auch nicht immer gegen jede Szene.
Manchmal schon :)
Iscaran
2025-01-03, 23:53:02
Wer Lust hat macht sich mehrere Profile und hat nen ziemlich gutes Leben,...
Ne die Lust hab ich nicht. Ich hab auch nicht die Lust jedesmal wenn ich in mein Auto steige erstmal 3 Änderungen am Setup zu machen nur damit ich dann Autobahn statt Stadt fahren kann.
Eine 5090 könnte spekulativ also auch bei irgendwas um die 200w betrieben werden und damit bekommst du FullFlat 4090 Leistung, das kann keine andere Karte auf diesem Planeten.
Warum released man dann keine Karte die 200 W @4090 Leistung hat und fertig...die muss auch nicht 4090 + 200% leistung haben. Hauptsache die ist kleiner und billiger.
Ich will ein VW Golf haben und keinen Porsche 911 (den ich dann auch fahren kann wie einen VW Golf).
EDIT Die 4090 hat nen doppelt so hohen Marktanteil als die P/L stärkere 7900XTX und verkaufte sich trotzdem besser als die günstigeren Chips drunter. Die Dinger sind noch zu billig, people pay the prices.
Japp. Ist so.
Daredevil
2025-01-04, 00:05:14
Arrow lake hat dies gemacht, niedriger Verbrauch und nahezu gleiche Leistung als vorher. Das Ergebnis in der Gamer Gemeinde ist, das es ein total Flop darstellt. Vermutlich deswegen macht NVIDIA das nicht. ^^
Außerdem muss niemand Profile erstellen, das ist für welche, die halt Lust auf sowas haben. Stock mit Power Limit, FPS Limit oder meinetwegen auch ohne Limit geht ja auch, dann darf man halt nicht jammern wenn Counter Strike 400w säuft obwohl es bei 100w das gleiche Ergebnis gibt.
Lehdro
2025-01-04, 00:35:06
Arrow lake hat dies gemacht, niedriger Verbrauch und nahezu gleiche Leistung als vorher. Das Ergebnis in der Gamer Gemeinde ist, das es ein total Flop darstellt. Vermutlich deswegen macht NVIDIA das nicht. ^^
Der Vergleich hinkt aber gewaltig. Bei den GPUs war es lange Zeit gang und gäbe, dass die folgende Oberklasse Generation die Topperformance des Vorgängers boten, weniger kosteten und weniger verbrauchten. Meistens reichten die 70/80er für die 80Ti Performance bei signifikant weniger Verbrauch. Neuerdings steigen allerdings die Preise im Gleichschritt zur Mehrperformance mit, so dass zumindest das Preisargument fraglich ausfällt.
Daredevil
2025-01-04, 01:30:22
Da kannst du dich bei allen anderen in der Wertschöpfungskette in der Halbleiterfertigung bedanken. :) Die Welt verändert sich nun einmal. Daran ist sicherlich auch Nvidia schuld, mittlerweile will aber jeder was vom Kuchen abhaben und das zahlt ganz direkt eben auch der Kunde. Zudem leben wir in einer Zeit, wo Fertigung halt eben nicht nur durch Gaming erweckt wird, sondern mehr und mehr professionelle Zwecke genutzt werden die Margenstark sind. Und solange die Nachfrage konstant hoch bleibt und steigt, das Angebot aber nicht drastisch erhöht wird ( Deswegen baut TSMC so viele Werke all over the world ), findet eben keine Marktsättigung statt und das erhöht allgemein die Preise in der HighEnd Halbleiterfertigung. Und da Intel als Komplettversager in der Fertigung quasi aus dem Markt gedrängt worden ist, haben wir hier nochmal eine erneute Zuspitzung des Angebots, weil unsere Gaming Prozessoren halt nicht mehr bei Intel gefertigt werden, sondern zusätzlich auch noch bei TSMC, wo einfach alles herkommt.
Vom Sand bis zur fertigen GPU geht der Weg über eine Handvoll Monopolisten und jeder ist sich seiner Stellung bewusst. Zeiss > ASML > TSMC > NVIDIA.
Und sofern Kunden auf die Preis/Leistung auch keinen Wert legen, weil sonst würde AMD 90% Marktanteil haben und eben nicht Nvidia, hat die komplette Wertschöpfungskette auch keinerlei Anlass, da irgendwas verändern zu wollen. Du hast ja selber eine 4090 im System, eine Karte die nachweislich ein ziemlich schlechtes P/L Verhältnis hat. Du willst aber offenbar das schnellste haben und für die dickste und demnach teuerste GPU mit einer modernen Fertigung zahlst du eben den Preis. Der Markt wird angenommen, also wird er auch bedient.
https://s20.directupload.net/images/250104/ucp95tyq.png
Und um mal nicht noch mehr ins Offtopic zu rutschen: Auch der Verbrauch steigt stetig weiter an und solange Nvidia als auch AMD hier keine Sättigung sehen oder eine Abwehrreaktion des Marktes, wird doch einfach weiter gemacht. Weil die Kiste in einem kleinen Prozess hochjubeln anstatt die modernste Fertigung zu nehmen einfach günstiger ist. Es gab auf dem Markt mal öfter Produkte, die hier doll auf die Nase gefallen sind, weil Verbrauch und Leistung nicht zueinander gepasst haben.
2900XT, Bulldozer? Pentium4, Intel die letzten 5 Jahre, Vega war eigentlich auch schon frech und wenn es wirklich 500w+ werden, ist das auch einfach nur Faulheit, die der Kunde aber annimmt, sofern die Leistung halt eben da ist.
Wenn Blackwell nun in noch feinerer Fertigung hergestellt wird, kostet die Kiste dann 4000€. Also zahlt der Kunde den Preis entweder bei Mindfactory, oder beim Stromanbieter, zahlen muss er so oder so. :D
Apple bietet dir ( aktuell nur mobile ) Hardware an, die einen Bruchteil verbraucht und ähnlich oder mehr leistet als aktuelle X86 Hardware. Dafür startet ein 16" MacBook Pro mit M4 Max unbinned halt auch bei 4700€. Da bekommste aber immer die State of Art Fertigung von TSMC. :ugly:
Das ist das typische iPhone Phänomen. Ein Großteil der Leute ist sich sicher, das ein normales iPhone ohne Pro völlig ausreichend ist für 99% der Fälle.
Trotzdem laufen die meisten mit Pro Modellen rum. Macht keinen Sinn, ist aber Realität.
Duran05
2025-01-04, 01:46:53
Dann warten wir (Gamer) eben auf einen kleineren Chip in besserer Fertigung zu weniger gestörten Preisen.
Man muss nicht alles mitmachen, das sagt auch viel über die Qualität aus.
Wenn die Käufer schneller weglaufen ist es kein gutes Zeichen für diesen Markt.
iPhone Besitzer kenne ich übrigens keinen einzigen, die meisten kaufen das auch wegen Prestige.
downforze
2025-01-04, 02:10:16
Die Strategie von den Nvidia Abzockern ist doch mehr als deutlich. Der Sprung von 5070, 5080 zu 5090 wird so idiotisch vergrößert, dass der Kunde sich genötigt sieht, nicht so einen hohen Performance Abschlag hinzunehmen.
Im Angeber und Proletenforum von Computerbase stockt einem der Atem, was da teils geäußert wird. Im Sinne von "Ist mir egal, was sie kostet". GPU Käufe haben nun den Stellenwert von Blattgold im Eisbecher erreicht.
anorakker
2025-01-04, 12:10:28
Ihr solltet vllt. mal einsehen dass wir in diesen "Computerforen" halt alle in einer Boomer/Yuppie Bubble sitzen und mit dem allgemeinen Gamer da draussen wenig zu tun haben.
Eine 5090 könnte spekulativ also auch bei irgendwas um die 200w betrieben werden und damit bekommst du FullFlat 4090 Leistung, das kann keine andere Karte auf diesem Planeten.
Die 5000-Serie wird nur durch ihre Breite effizienter als die 4000er werden, also kaum, weil mehr Breite auch mehr Grundlastverbrauch bedeutet. Deshalb muss ja nvidia diesmal wieder mit der Wattkeule kommen. Auch Ada kann man manuell kaum tief runterknüppeln bei hoher Auslastung, weil die minimale Spannung soviel höher als bei den Prozessen zuvor ist. Man kann nur den Takt runterknüppeln, dann verliert man aber auch wieder massig Effizienz, weil die Spannung gleichbleibt.
Beispielsweise muss man schon ner RTX 4070S mindestens 150 Watt an Budget zugestehen, eher noch einen Ticken mehr, was in Wirklichkeit dann eher 160 Watt und einen Ticken mehr sind, ansonsten verliert man zuviel Effizienz, weil der Takt je nach Auslastung auf bis unter 1,5 Ghz runtergeküppelt wird, der Spannungspunkt aber weiter auf stolzen 0.925 V verweilt.
Hier mal als Referenz die 4090: https://www.computerbase.de/2022-10/nvidia-geforce-rtx-4090-review-test/5/#abschnitt_rtx_4090_vs_rtx_3090_ti_bei_450_350__300_watt
Du kannst für 6% Leistung die 150w in den Raum werfen, du kannst es aber auch lassen. Und eine 4090 bei 300w ist immer noch 50% schneller als eine 3090ti bei 450w.
Eine 5090 könnte spekulativ also auch bei irgendwas um die 200w betrieben werden und damit bekommst du FullFlat 4090 Leistung, das kann keine andere Karte auf diesem Planeten. Die dicken Karte bekommst du allerdings schwierig <100w, weil der Sweet Spot hier deutlich höher ist und die Einheiten ein Minimum an Saft brauchen, aber damit bekommste schon gut Pixel weggeschubst.
https://s20.directupload.net/images/250103/5lihzq8y.png
Powerlimit != Verbrauch.
Eine 4090 verbraucht nur selten 350W+, dementsprechend unterscheidet sich die Performance nicht großartig wenn man das Powerlimit in dem Bereich begrenzt, in dem die Karte eh nicht drüber kommen würde.
Lehdro
2025-01-05, 00:26:11
Du hast ja selber eine 4090 im System, eine Karte die nachweislich ein ziemlich schlechtes P/L Verhältnis hat. Du willst aber offenbar das schnellste haben und für die dickste und demnach teuerste GPU mit einer modernen Fertigung zahlst du eben den Preis. Der Markt wird angenommen, also wird er auch bedient.
Was ich kaufe hat aber nichts mit der Betrachtungsweise zu tun. Früher gab es die Möglichkeit, heute nicht mehr so wirklich. In Anbetracht von NVs Margen glaube ich aber wohl, dass hier der Großteil der "verschwundenen" Performancezuwächse pro Geldeinheit zu suchen ist und eben nicht in der Fertigung. Es gibt halt nicht genug Druck und damit kann NV das einfach so durchziehen - soweit so bekannt.
Die letzte Karte die ich aus P/L Gründen gekauft habe, war eine...lass mich mal überlegen...6600GT. Seit dem wurde nur Oberklasse+ oder technisch das schnellste gekauft. Preistechnische Unvernunftkäufe umfassten unter anderem: 7800GS, HD3850 AGP, GTX 480, Titan (Vanilla), Titan X (Pascal), 6900XT und eben die 4090. Zu jeder Zeit gab es P/L-technisch bessere Karten. Mit der 50er Serie steht das wohl echt nicht mehr zur Debatte, die wird einfach oben auf die 40er draufgeflanscht bzw. im Preisbracket direkt ersetzt.
Eine 4090 verbraucht nur selten 350W+, dementsprechend unterscheidet sich die Performance nicht großartig wenn man das Powerlimit in dem Bereich begrenzt, in dem die Karte eh nicht drüber kommen würde.
Ich habe eine 4090 und ich kann dir aus dem Hut direkt ein halbes Dutzend ältere Spiele nennen wo die 4090 auch in 1440p ihr PL gut ausreizt. Ja, sie klebt nicht im PL, aber so zu tun als wäre 350W realistischer ist auch vollkommener Unfug.
Daredevil
2025-01-05, 00:40:59
Powerlimit != Verbrauch.
Eine 4090 verbraucht nur selten 350W+, dementsprechend unterscheidet sich die Performance nicht großartig wenn man das Powerlimit in dem Bereich begrenzt, in dem die Karte eh nicht drüber kommen würde.
Das ist zwar richtig, trifft in dem von mir geteilten Beispiel aber nicht zu, weil CB keine Smartphone Auflösungen getestet hat. :D
Und wenn die Basis 350w ist, spielst du halt das gleiche Spiel, indem du auf 250-300w begrenzt. Ich weiß jetzt nicht genau wo der Sweet Spot bei der 4090 war, bei der 3090 war er bei 0.7w bei ca. 180-200w bei ruhigen 1500Mhz. Eine 4K taugliches Setting war 0.85v bei ca. 280-300w bei ca. 1800Mhz und das Vollkaracho Setting war bei 1.xv bei 350-400w bei 1950Mhz.
0.7v bei 1000Mhz ging zwar auch bei irgendwas um die 120w, da war man aber viel zu weit weg vom 4k tauglichen Sweet Spot, es sei denn man hat 2D Indie Kram gespielt oder ein Diablo 3 ect.
Was ich kaufe hat aber nichts mit der Betrachtungsweise zu tun. Früher gab es die Möglichkeit, heute nicht mehr so wirklich. In Anbetracht von NVs Margen glaube ich aber wohl, dass hier der Großteil der "verschwundenen" Performancezuwächse pro Geldeinheit zu suchen ist und eben nicht in der Fertigung. Es gibt halt nicht genug Druck und damit kann NV das einfach so durchziehen - soweit so bekannt.
Die letzte Karte die ich aus P/L Gründen gekauft habe, war eine...lass mich mal überlegen...6600GT. Seit dem wurde nur Oberklasse+ oder technisch das schnellste gekauft. Preistechnische Unvernunftkäufe umfassten: 7800GS, HD3850 AGP, GTX 480, Titan (Vanilla), Titan X (Pascal), 6900XT und eben die 4090. Zu jeder Zeit gab es P/L-technisch bessere Karten. Mit der 50er Serie steht das wohl echt nicht mehr zur Debatte, die wird einfach oben auf die 40er draufgeflanscht bzw. im Preisbracket direkt ersetzt.
Ich sag ja nicht, das Nvidia hier das Opfer ist, hier verraten sie sich mit dem spärlichen RAM analog zu Apple schon deutlich, aber es hat halt durchaus Multifaktorale Gründe.
Ich bin von der 1080ti auf 2080ti zur 3090 gewandert und die 4090 habe ich ausgelassen, weil die Karte eben keinen riesigen Sprung gemacht hat, um einen erheblichen Unterschied zu machen in meinem Setting. ( Upgrades sind für mich ca. 80-100%+ )
Die 1080ti, 2080ti und 3090 haben sich durchs Mining zwar selber ausfinanziert, eine 5090 ist aber schon interessant für mich für die nächsten 5+ Jahre, weil eine 6090 wird's am Ende dann nicht sein und Preisstabilität ist ja super gegeben, sofern man nicht bis zur letzten Sekunde wartet.
Der Arbeitsspeicher macht die Kiste, sofern sie mit 32GB kommt zu einem zukunftsfähigen HPC Karte und demnach könnte hier die Preis/Leistung auch gar nicht mal so schlecht sein, oder sagen wir eher das Total Cost of ownership, eben weil AMD sich in diese Regionen nicht wagt. Gibt aktuell kein Grund, wieso hohe Preise purzeln sollten, das ist bei der 4090 ja auch nicht passiert. Ist nur die Frage, ob man die Kohle rumliegen hat. :ugly:
ChaosTM
2025-01-05, 00:43:06
Ich spiel hauptsächlich neuere Spiele und alles > 350W ist selten.
Erzähl mir von dem halben Duzend der älteren, die deine CPU ausreizen.
Speziell in 1440p..
add.: alles > 350W ist wie du es zu sagen pflegst - vollkommener Unfug
aja: @ Devil, du hast die einzige Grafikkarte "ausgelassen" die wirklich Sinn gemacht hätte.
Daredevil
2025-01-05, 00:57:40
Das liegt aber nicht daran, dass die Karte aus Spaß so wenig zieht, sondern weil du sie in WQHD einfach nicht auslastest und damit bis ans Limit bringst.
Auch das hat CB ja im verlinkten Test gezeigt bei z.B Doom3
WQHD > 356w
UHD > 432w
Schnallst du da noch ein wenig Raytracing drauf oder erhöhst die Auflösung, biste dann bei dem Limit. Dass es wirtschaftlich sinnlos ist, ne Kiste voll am Power Limit zu fahren, wenn man seine FPS Range erreicht hat ( bei mir irgendwas um die 100-120 ), ist ja denke ich klar.
Wenn ein Spiel aber nun mit RT bei irgendwas um die 80fps hockt und man die 100fps will, dann wird die Kiste halt so doll hochgejubelt, bis das Ziel erreicht ist.
Jeder mag da auch andere Ziele und Ansichten haben und das ist ja auch total okay, wir sind ja beim DIY Markt und da kann jeder das tun, was er will. Da ist ja weder was richtig noch falsch dran, nur weil man etwas anders macht. :)
Du hast in WQHD halt einfach noch ein wenig Spiel nach oben bzw. erreichst das in der Form einfach nicht, weil die 4090 sich halt ein wenig langweilt ganzheitlich gesehen.
Für mich bedeutet der GPU Kauf, das ich ein Problem habe welches ich lösen möchte.
Das Problem ist 55" groß und ist ein 4K120hz OLED auf meinem Schreibtisch, wo alles unter 4K ekelhaft aussieht bei 1m Distanz ( Größter Fehler ever war nen 4K Screen, dafür gibts keine Karte :D ). Das war zu 2080ti Zeiten ganz gut machbar, bis Nvidia sich gedacht hat "Yooo, Raytracing lässt alles kacke laufen, das machen wir mal". Deswegen gabs bei mir eine 3090 irgendwann und dann dachte sich Nvidia so "Yoooo, Pathtracing läuft noch beschissener, das machen wir mal". Und da eine 4090 selbst in dem Szenario bei Full Eye Candy nicht das leisten kann, was es muss, wurde hier bei mir übersprungen natürlich im Hintergedanken, dass die nächste Gen das lösen kann. Ich warte immer noch auf die perfekte Cyberpunk Karte, damit ich des zocken kann. So wie ich aber Nvidia kenne, kommt in einem halben Jahr ein tolles neues Feature, was wiederum alles langsam wirken lässt. Nvidia halt. Schaffe ein Problem und 2 Jahre später die Lösung. :usad:
Iscaran
2025-01-05, 12:35:36
Gibts eigentlich irgendwo mal einen Test wieviele z.B eine GTX 4090 braucht wenn man sie im "selben" FPS limit laufen lässt wie z.B. eine GTX 4060, weil das halt für das Spiel ausreichend ist?
Also Game X @60 FPS @ Ultra in Auflösung Y...eben.
So dass beide GPUs eben mit 60 FPS noch klarkommen?
Würde mich mal interessieren ob eine 4090 unter diesen Settings trotzdem mehr braucht als eine 4060 um die 60 FPS zu zaubern.
Gibts eigentlich irgendwo mal einen Test wieviele z.B eine GTX 4090 braucht wenn man sie im "selben" FPS limit laufen lässt wie z.B. eine GTX 4060, weil das halt für das Spiel ausreichend ist?
Also Game X @60 FPS @ Ultra in Auflösung Y...eben.
So dass beide GPUs eben mit 60 FPS noch klarkommen?
Würde mich mal interessieren ob eine 4090 unter diesen Settings trotzdem mehr braucht als eine 4060 um die 60 FPS zu zaubern.
Hängt von der Belastung der Graka ab, so als Faustregel, alles was die 4060 mit bis zu 80 Watt schafft, dürfte sie dort effizienter sein, weil die 4090 im 3D fast immer mindestens um die 80 Watt als minimalen Grundlastverbrauch zieht.
Wo die 4060 dann über 80 Watt gehen muss, dürfte die 4090 immer, bis auf vielleicht paar Ausnahmen im Grenzbereich, effizienter sein. Und je höher die Auflösung weg von FHD ist, desto ausnahmsloser.
Ist ja wie mit aktuellen AMDs iGPUs. Bis ca. 25 Watt TDP nur für die iGPU ohne CPU-TDP effizient, danach werden sie schon von ner 4060 eingefangen, wenn man den Systemgesamtverbrauch pro fps vergleicht.
Lehdro
2025-01-05, 21:27:01
Ich spiel hauptsächlich neuere Spiele und alles > 350W ist selten.
Erzähl mir von dem halben Duzend der älteren, die deine CPU ausreizen.
Speziell in 1440p..
add.: alles > 350W ist wie du es zu sagen pflegst - vollkommener Unfug
Ich habe mir heute mal die Mühe gemacht und alles bei mir Installierte fix durchgetestet:
Rise of the Tomb Raider - 2016 - alles max ohne DLSS - instant 450W Powerlimit, GPU taktet leicht runter.
Metro Last Light - 2013 - alles max - 430-450W, kleine Dips des Taktes im Powerlimit
Black Desert Online - 2015 - auf "Remastered" in 1440p mit dem 9800X3D >400W, meist ~430W. Auf "Ultra" rennst du sogar ab und an in das Powerlimit.
Borderlands 3 - 2019 - 1440p alles max - absolute Wundertüte, von 300-440W habe ich alles gesehen. Schon im Menü knackt man die 430W locker. Mit 200% Resolution Scale klebt man dann jederzeit knapp unterhalb der 450W.
Darktide -2022 - 1440p, RT + FG - meist 380-420W sustained. Ist aber oft CPU limitiert.
Total War: Warhammer 3 - 2022 - 1440p alles max, 4X Karte = >410W, Schlacht = Schwankt stark, meist um die 380W, wenn nicht gerade CPU limitiert (häufig!) oder heftige Effekte auftreten.
A Plague Tale Innocence - 2019 - 1440p Ultra - >420W
Mass Effect Andromeda - 2017 - 1440p alles max, direkt im Menü schon 430W, auf Planeten eher ~400W wenn ein bisschen was los ist.
Cyberpunk 2077 - 2020 - 1440p alles max + FG -> 410-430W
Succubus - 2019 - 1440p alles max -> 390-410W
Divinity Original Sin II - 2017 - 1440p alles max -> 390-400W
Hellblade - Senuas Sacrifice - 2017 - 1440p alles max -> 380-400W
Shadow of the Tomb Raider - 2018 - 1440p alles max ~ 380-390W, im Benchmark sieht man sogar die 400W.
Witcher 3 Next Gen - 2022 - 1440p alles max - 350W (Novigrad)-390W (Kaer Mohen), je nachdem wo man rumeiert.
Tiny Tinas Wonderlands 2022 - alles max auf 1440p - ~ 300W - 400W, wie BL3 eine absolute Wundertüte je nach Blickwinkel/Level - mit Resolution Scale 150% ist man meist bei um die 400W.
NFS Unbound - 2022 - 1440p alles max ~ 370W - mit Resolution Scale 200% direkt 450W
NFS HEAT - 2019 - 1440p alles max ~ 350W - mit Resolution Scale 200% direkt 450W
World of Warships - 2015 - alles max 1440p -> 360-370W
Tomb Raider - 2013 - alles max 1440p -> 250W-400W, variiert extrem je nach Level und Blickwinkel, meist um die 350W rum.
Gerne hätte ich noch Ryse: Son of Rome (2014) getestet, allerdings holpert das Spiel nur mit knapp über 60 fps vor sich hin und hat extrem instabile Frametimes. Keine Ahnung was da kaputt ist, das hatte ich flüssiger in Erinnerung. Dabei verbraucht es aber schon an die 300W. Sieht übrigens immer noch 1A aus!
Je besser die 4090 ausgelastet wird, desto mehr säuft sie. Völlig egal wie alt das Spiel ist. Spiele mit integriertem SSAA sind natürlich besonders geil für die Pixellast, aber das alles zeigt nur eins auf: Die ~350W Verbrauch sind eine Momentaufnahme. Wird die 4090 richtig gefordert, nutzt sie das PL auch aus. Das wird in Zukunft eher zunehmen und schlimmer werden.
Sardaukar.nsn
2025-01-05, 21:46:01
@Lehdro: Aber die Leistung und der Fortschritt sind doch voll da!
Mal ganz ehrlich, willst du das irgendwie einschränken und unterbinden?
Lehdro
2025-01-05, 22:52:56
@Lehdro: Aber die Leistung und der Fortschritt sind doch voll da!
Mal ganz ehrlich, willst du das irgendwie einschränken und unterbinden?
Nein, warum sollte ich? Ich möchte nur dass die Leute da realistisch herangehen. Mit 350W für eine Stock 4090 zu rechnen ist nicht realistisch. Erst recht nicht wenn man davon ausgeht, wie ich zum Beispiel, dass ein 4090 Käufer das Ding auch ausfahren will. Bei den Verbräuchen die u.a. PCGH da angibt muss man immer bedenken, dass da sehr oft eben nicht alle Regler nach rechts gedrückt werden, obwohl die Karte, gerade in 1440p, das halt locker könnte. Von Resolution Scaling, DLAA oder gar "stumpfem" Downsampling reden wir da noch nicht einmal.
Bei dieser Reise durch die GFX-Geschichte ist mir wieder einmal aufgefallen was der Unterschied zwischen einem schönem Spiel und einem Grafikblender ist. Die schönen Spiele sind zeitlos, da sie wie aus einem Guss wirken. Die Grafikblender können immer irgendetwas sehr toll, aber altern schrecklich. Beim ersten Tomb Raider (2013) zum Beispiel, von Lara mal abgesehen (TressFX lässt grüßen), ist sehr viel von dem Dargestellten richtig schlecht gealtert. Metro LL sieht hingegen heute noch gut aus, weil es eben keine riesig große Diskrepanz zwischen Playercharakter/NPCs und Umgebung gibt. Ryse: Son of Rome sieht auch heute noch umwerfend aus (von den technischen Problemen mal abgesehen), bleibt aber dafür spielerisch ein Produkt seiner Zeit. DoS II, RotTR, SotTR und Hellblade sind hingegen richtig gut gealtert und ME:A lässt zumindest ab und zu durchblitzen was die Engine denn könnte wenn man gewollt hätte, scheitert aber im Endeffekt an sich selbst. Cyberpunk wird wie Crysis ein Spiel werden, welches durch Texturmods und andere leichte Kniffe ins nächste Jahrzehnt geschoben werden kann. Die beiden NFS brauchen selbst heute schon Downsampling um richtig gut auszusehen, halten dann, bedingt durch das Genre, aber immerhin ganz gut mit. BDO war seiner Zeit soweit voraus (besonders Charakterdarstellung), dass es selbst heute noch darunter leidet. Der Kontrast zwischen Spieler und Spielerwelt ist teilweise zu krass, vor allem da die Engine da am Limit läuft, was die Immersion gewaltig stören kann (schlechtes TAA, LoD und Pop-in). Das es selbst heute einen Top aktuellen X3D und eine 4090 zum Frühstück verputzt kommt da noch oben drauf.
Iscaran
2025-01-05, 23:20:12
Ich habe mir heute mal die Mühe gemacht und alles bei mir Installierte fix durchgetestet:
Könntest du das mal im Vergleich mit z.B. 60 FPS Limiter bei ein paar, insbesondere älteren Games testen?
z.B. World of Warships oder sowas?
Würd mich mal interessieren.
Iscaran
2025-01-06, 00:04:16
EDIT:
Scheinbar hat CapFrameX das mal zumindest mit der 3000er Serie gemessen;
https://www.capframex.com/tests/Nvidia%20has%20an%20efficiency%20problem
Das scheint dann wohl den Ausführungen von Gast zu widersprechen:
Hängt von der Belastung der Graka ab, so als Faustregel, alles was die 4060 mit bis zu 80 Watt schafft, dürfte sie dort effizienter sein, weil die 4090 im 3D fast immer mindestens um die 80 Watt als minimalen Grundlastverbrauch zieht.
Wo die 4060 dann über 80 Watt gehen muss, dürfte die 4090 immer, bis auf vielleicht paar Ausnahmen im Grenzbereich, effizienter sein. Und je höher die Auflösung weg von FHD ist, desto ausnahmsloser.
Sofern sich im Verhalten zwischen 3000er und 4000er Karten nicht fundamental was verändert hat.
Lehdro
2025-01-06, 00:59:50
Könntest du das mal im Vergleich mit z.B. 60 FPS Limiter bei ein paar, insbesondere älteren Games testen?
z.B. World of Warships oder sowas?
Würd mich mal interessieren.
BDO und WoWS mit 60 FPS Limit: ca. 80-90W, VRAM auf ca. 10 Gbps, Core auf ~1200 MHz bei 0.87V.
Mit 75 FPS sind es in BDO direkt um die 100-110W, weil der VRAM dann komplett auf 21 Gbps hochtaktet.
Bei 120 FPS ist man BDO gleich bei ~220W und die Karte taktet vollständig hoch.
Unter 80W in 3D wird mit der 4090 schwer, immerhin kann meine Karte das dank der ordentlichen Gehäusebelüftung streckenweise semipassiv bewältigen (abseits von heißen Sommertagen). Noch niedrigere 3D Lasten habe ich mit 40-50W beobachten können - da darf aber echt nicht viel los sein. Ein 2D Titel wie Halls of Torment siedelt sich auch um die 40W an...
Sofern sich im Verhalten zwischen 3000er und 4000er Karten nicht fundamental was verändert hat.
Lovelace verhält sich unter niedrigeren Lasten eher so wie RDNA2 anstatt wie Ampere. Es wird brav runtergetaktet und ordentlich Strom gespart. Ampere hatte in der Hinsicht echt ein Problem. RDNA3 war in der Hinsicht auch ein Rückschritt.
Iscaran
2025-01-06, 01:36:00
@Lehdro
Danke :-). Jetzt müsste man nur noch wissen wie viel eine "kleine" Karte in so einem Alt-Game braucht.
Aber offenbar wurde das Verhalten bei der 4000er Serie dahingehend schon optimiert. Am Ende dürfte "Breite" des Chips immer etwas mehr Power kosten.
Lehdro
2025-01-06, 11:15:21
Am Ende dürfte "Breite" des Chips immer etwas mehr Power kosten.
Bis zu einem gewissen Grad ja, aber ich denke so spätestens ab ~200W dürfte die 4090 immer führend sein, mit Abstand dann.
Radeonfreak
2025-01-06, 11:21:26
del
Ampere hatte in der Hinsicht echt ein Problem.
Die anderen vorherigen Nvidia-Architekturen haben es auch nicht besser gemacht, nur bei Ammpere hat man es durch den Mistprozess von Samsung richtig gemerkt, weil der hohe Spannungen bei hohem Takt brauchte und oben soff wie ein Loch, nur unten noch relativ genügsam war.
Leonidas
2025-01-06, 12:14:56
Die ~350W Verbrauch sind eine Momentaufnahme. Wird die 4090 richtig gefordert, nutzt sie das PL auch aus. Das wird in Zukunft eher zunehmen und schlimmer werden.
Danke! Habe ich nämlich von Anfang an gesagt, konnte man auch den allerersten Stromverbrauchswerten schon entnehmen. Und auch Erfahrungswerten: Der Stromverbrauch der Karten, die noch nicht das Powerlimit ausnutzen, steigt mit den Jahren an, bis sie eines Tages das Powerlimit fast durchgehend ausnutzen.
Iscaran
2025-01-06, 12:59:50
Bis zu einem gewissen Grad ja, aber ich denke so spätestens ab ~200W dürfte die 4090 immer führend sein, mit Abstand dann.
Ja - das glaub ich gern, aber ab 200 W interessiert mich fast nicht mehr :-). Das ist "Volllast" bei den GPUs die ich normalerweise habe und die für mich preislich gerade noch interessant sind.;D
So dass beide GPUs eben mit 60 FPS noch klarkommen?
Würde mich mal interessieren ob eine 4090 unter diesen Settings trotzdem mehr braucht als eine 4060 um die 60 FPS zu zaubern.
Das hängt vom Spiel ab. Wenn eine 4060 unlimitiert gerade mal so über 60FPS erreicht und damit mit Framelimiter immer noch mit >90% Auslastung unterwegs ist wird sie sogar mehr brauchen als eine 4090 die auf 60FPS eingebremst wird.
Wenn die 4060 100FPS+ könnte, und damit mit dem 60FPS-Limiter weit von ihrem Limit entfernt ist wird sie sparsamer sein als eine 4090 mit ebenfalls 60FPS.
Ja - das glaub ich gern, aber ab 200 W interessiert mich fast nicht mehr :-). Das ist "Volllast" bei den GPUs die ich normalerweise habe und die für mich preislich gerade noch interessant sind.;D
Hol dir eine 4090 und trimme sie auf 200w, das geht mit ein paar Klicks. Du wirst dich wundern, was das Ding so limitiert trotzdem noch rauspumpt.
Die TDP, das PT oder PCB VL hat doch nichts damit zu tun welche Leistung ich gezielt abrifen kann, vor allem bei UV.
redpanther
2025-01-07, 16:12:11
Hol dir eine 4090 und trimme sie auf 200w, das geht mit ein paar Klicks. Du wirst dich wundern, was das Ding so limitiert trotzdem noch rauspumpt.
Die TDP, das PT oder PCB VL hat doch nichts damit zu tun welche Leistung ich gezielt abrifen kann, vor allem bei UV.
Könnte er machen, wenn er nicht geschrieben hätte:
"die für mich preislich gerade noch interessant sind"
Ich habe eine 4090 und ich kann dir aus dem Hut direkt ein halbes Dutzend ältere Spiele nennen wo die 4090 auch in 1440p ihr PL gut ausreizt. Ja, sie klebt nicht im PL, aber so zu tun als wäre 350W realistischer ist auch vollkommener Unfug.
Ich habe auch eine 4090 und ich kann dir zu deinem halbem Dutzend Spiele die >400W brauchen genauso ein halbes Dutzend nennen in denen der Verbrauch <250W ist.
350W im Durchschnitt ist sehr realistisch, auch wenn es natürlich genügend Beispiele in denen es an die 400W geht gibt.
Und das hat auch nicht unbedingt was mit alt oder neu, oder der Grafikqualität an sich zu tun. Ein Path of Exile sieht nicht besonders aus, ist ziemlich alt und bewegt sich größtenteils um die 400W.
Selbst ein Star Wars Outlaws ist trotz Pathtracing dagegen oft unter 300W, selbst wenn es Peaks über 400W gibt.
Der Stromverbrauch der Karten, die noch nicht das Powerlimit ausnutzen, steigt mit den Jahren an, bis sie eines Tages das Powerlimit fast durchgehend ausnutzen.
Das hat überhaupt nichts mit den Jahren zu tun. Es gibt alte Spiele die locker über 400W brauchen, Furmark ist auch alt und hängt am Powerlimit, und es gibt neue Spiele in denen es sogar weit unter 300W runtergeht.
Der Realverbrauch ist von Spiel zu Spiel und sogar von Szene zu Szene stark unterschiedlich. >400W sind seltene Peaks <250W sind auch sehr selten, um Durchschnitt trifft man sich irgendwo in der Mitte.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.