Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Wo liegt das persönliche TDP-Limit für Grafikkarten?
Leonidas
2022-03-27, 12:40:13
Link zur Umfrage:
https://www.3dcenter.org/umfrage/umfrage-wo-liegt-das-persoenliche-tdp-limit-fuer-grafikkarten
Link zur Umfrage-Auswertung:
https://www.3dcenter.org/news/umfrage-auswertung-wo-liegt-das-persoenliche-tdp-limit-fuer-grafikkarten
hq-hq
2022-03-27, 13:01:49
Link zur Umfrage:
https://www.3dcenter.org/umfrage/umfrage-wo-liegt-das-persoenliche-tdp-limit-fuer-grafikkarten
Link zur Umfrage-Auswertung:
folgt
Könnte man noch unterteilen in Luft- und Wassergekühlt. Unter Luft hätte ich 350 Watt und unter Wasser 500 Watt gesagt.
IchoTolot
2022-03-27, 13:05:38
Ich finde irgendwo muss auch mal Schluss sein. 300 Watt ist das für mich. Ich baue mir keine 600 Watt Karte in den Rechner.
ChaosTM
2022-03-27, 13:12:28
Ohne Erneuerbare Energien ~ 250watt,
Sobald das Problem gelöst ist -> ∞
BlacKi
2022-03-27, 14:24:48
Könnte man noch unterteilen in Luft- und Wassergekühlt. Unter Luft hätte ich 350 Watt und unter Wasser 500 Watt gesagt.ich glaub es ging nur um den verbrauch, nicht was durch den verbrauch an konsequenzen entsteht.
die frage ist eher: was darf die karte an strom verbrauchen, bevor du sagst das der stromverbrauch selbst zu hoch ist.
deshalb gibt es auch die option, kein limit. weil es eher eine theorethische frage ist. in deinem fall würde ich 500w oder sogar ohne limit anklicken.
Linmoum
2022-03-27, 14:50:19
Könnte man noch unterteilen in Luft- und Wassergekühlt. Unter Luft hätte ich 350 Watt und unter Wasser 500 Watt gesagt.Jo, so würde ich das auch unterscheiden wollen.
500W mit Wakü allerdings trotzdem unter der Prämisse, dass sich das annähernd effizient darstellt.
Wenn der Sprung 350W -> 500W nur für 10-15% mehr Performance sorgt, dann nicht. Wenn es aber eher Richtung 25-30% geht, schon eher. Das merkt man halt auch in UHD aufwärts.
iamthebear
2022-03-27, 14:59:10
Reden wir hier von der offiziellen TDP der Karte oder dem Powerlimit bei dem ich diese maximal betreiben werde? Gerade bei den hochgetriebenen 600W Karten ist dies ja kein Muss.
ChaosTM
2022-03-27, 15:35:37
Wenn ich auch hier eine PV/Speicher Anlage hätte wäre mir der Verbrauch völlig wurscht, solang eine adäquate Kühllösung mitgeliefert wird.
Sprich halbwegs geräuscharm.
MiamiNice
2022-03-27, 15:48:05
… No no limits, we'll reach for the sky
No valley to deep, no mountain to high
No no limits, won't give up the fight
We do what we want and we do it with pride…
https://www.youtube.com/watch?v=bP4ufZKSkio
(Die Demonstration ist von 2017)
Ich vill solch eine in Echtzeit gerenderte Grafik im 300 W-Budget.
Gerne in VR mit 4k x 4k pro Auge und höher, HDR-1 Million+ cd/m²; mit foveated rendering sollte es innerhalb der nächsten Konsolengeneration machbar sein.
Das ist ein Befäähllll!
Hellstaff
2022-03-27, 15:54:37
600W ...
Ich freue mich schon auf den Sommer, wenn meine 250W Grafikkarte den Raum unerträglich aufheizt ...
chicki
2022-03-27, 15:55:26
Für mich ist das bei gpus eher eine Frage der Effizienz (und Lautstärke) als der absoluten Wattzahl.
Hatte mir für diese Generation eigentlich 220W als Grenze gesetzt, aber finde die radeon 6800 dann doch das beste Gesamtpaket. Bei einer neuen CPU will ich dann aber eigentlich bei 65w TDP klasse bleiben
QUERSCHLÄGER
2022-03-27, 16:06:22
600W ...
Eine 250W Grafikkarte heizt bei mir im Sommer den Raum übelst auf ...
Halt mal die Hand vor den laufenden Rechner und dann erzähle mir nochmal, du könntest ein ganz spezielles 250w-Bauteil für eine gewisse Abwärme verantwortlich machen. Oder du könntest dann noch einen weiteren Unterschied zu einer 350w-Karte feststellen.
Zum Thema: die hohen Wattzahlen werden ja den größeren Modellen zugerechnet, weswegen mich die sowieso nicht erreichen werden. Eine 70er wird da wieder ganz anders zu Werke gehen, wenn auch die ihren Verbrauch nochmals erhöhen wird im Vergleich zum Vorgänger.
Habe noch eine 1070 mit einem 10700 zusammen im Rechner und das Strommeßgerät bescheinigt im Betrieb (1440p auf immer gedrosselte 60fps) Verbäuche von 170-230w, je nachdem, welches Spiel gerade läuft. Das ist für den ganzen Rechner schon erstaunlich, wenn ich mal eine 3090 + 5800x heranziehe, die manches Mal zB. in CP2077 laut youtube-Videos knapp über 700w ziehen in der Spitze. Verschlechtern werde ich mich also unweigerlich irgendwann.
Rabiata
2022-03-27, 16:33:21
Für mich max. 150 W. Unter 100 W wäre besser, aber ich mache Kompromisse falls die Leistung der unter 100 W GraKa nicht ausreichend erscheint.
Einhalten der Limits mit einer problemlos einzustellenden Leistungsbegrenzung gilt auch. Diese muß aber unter Linux verfügbar sein.
ChaosTM
2022-03-27, 16:35:39
150-160 reicht mir derzeit (Mobile).
77 und Horizon rennen damit fein in 4k.
MiamiNice
2022-03-27, 16:59:18
600W ...
Ich freue mich schon auf den Sommer, wenn meine 250W Grafikkarte den Raum unerträglich aufheizt ...
Bist Du nen Knasti und wohnst auf 9m2?
Lehdro
2022-03-27, 17:16:02
[x] Kein Limit.
ABER
Ich will Effizienz. 2x so schnell wie eine 3090 soll also auf keinen Fall 2x so viel (oder ähnlich) verbrauchen. Erst dann kann man nämlich irgendwo im Angebotsstack zugreifen und hat das Problem des Topends generell nicht (absoluter Verbrauch) und trotzdem vernünftige Leistungssteigerungen.
Kühlungstechnisch geht mit upbeefed Lukü durchaus auch noch einiges, siehe 3090 und viele 3090 Customs. Mit 3,5 Slots und gutem Design sind sicher auch 500W kühlbar. Was noch fehlt sind nachrüstbare Luftkühler mit größeren Ausmaßen, wie sie damals noch üblich (https://geizhals.de/raijintek-morpheus-8057-0r10b00176-a2316973.html?hloc=de) waren. Aber mal davon ab, AiOs sind dann nur der nächste Schritt, Potenzial ist da locker vorhanden wie die 6900XT LC zeigt, die nur einen einzigen popeligen 120er Radi hat und trotzdem 330W spielend wegkühlt. Als jemand der eine GTX 480, GTX Titan und Titan X(P) mit Wakü gekühlt hat, sehe ich da sowieso das kleinere Problem - custom Wakü-like "AiOs" gibt es mittlerweile auch explizit für GPUs (Alphacool Eiswolf). Für das absolute Topend ist also sogar das noch gangbar, da im Grunde nichts anderes als eine weitere AiO. Nimmt den Schrecken vor einer richtigen Wakü :)
Disconnected
2022-03-27, 17:34:28
600W ...
Ich freue mich schon auf den Sommer, wenn meine 250W Grafikkarte den Raum unerträglich aufheizt ...
Genau das ist auch mein Problem. Stromkosten sind mir egal, Lautstärke kann man mit einigem Aufwand in den Griff bekommen, nur gegen die Abwärme kann man gar nichts machen (außer vielleicht nach draußen leiten). In Winter sind 300 W noch akzeptabel, auch was die Lautstärke angeht.
Schnitzl
2022-03-27, 18:15:19
Halt mal die Hand vor den laufenden Rechner und dann erzähle mir nochmal, du könntest ein ganz spezielles 250w-Bauteil für eine gewisse Abwärme verantwortlich machen. Oder du könntest dann noch einen weiteren Unterschied zu einer 350w-Karte feststellen.
das bringt nix, da man bei einem Luftstrom das als gefühlt kälter empfindet als bei stehender Luft. Das kannst du z.B. bei nem Wäschetrockner selbst testen: die Luft, die rausgeblasen wird, scheint normal-Temperatur zu haben wenn man die Hand hinhält, trotzdem ist am Ende der Raum wärmer ;)
Zum Thema: die hohen Wattzahlen werden ja den größeren Modellen zugerechnet, weswegen mich die sowieso nicht erreichen werden. Eine 70er wird da wieder ganz anders zu Werke gehen, wenn auch die ihren Verbrauch nochmals erhöhen wird im Vergleich zum Vorgänger.
Habe noch eine 1070 mit einem 10700 zusammen im Rechner und das Strommeßgerät bescheinigt im Betrieb (1440p auf immer gedrosselte 60fps) Verbäuche von 170-230w, je nachdem, welches Spiel gerade läuft. Das ist für den ganzen Rechner schon erstaunlich, wenn ich mal eine 3090 + 5800x heranziehe, die manches Mal zB. in CP2077 laut youtube-Videos knapp über 700w ziehen in der Spitze. Verschlechtern werde ich mich also unweigerlich irgendwann.
die 1070 ist ein Lacher im Vergleich zu heutigen Karten! TDP bei glaub ich 140W. Die 3070 hat schon 220W, die 4070 wird garantiert mehr haben.
Deswegen denke ich, die Einschätzung "die hohen Wattzahlen werden ja den größeren Modellen zugerechnet, weswegen mich die sowieso nicht erreichen werden." wird nicht helfen...
Ich selbst habe einen deutlichen Unterschied bemerkt, als ich von der 1070 zur 3070 gewechselt bin!
Blase
2022-03-27, 19:00:25
Ich habe mir um solche Limits oder den Verbrauch nie wirklich Gedanken gemacht. Habe entsprechend mit "kein Limit" abgestimmt. Mir egal. Davon ausgehend, dass ich diesen Verbrauch nur unter Spielen habe und unter Windows das Teil quasi im Leerlauf bleibt - und generell auch die Leistung der Karte den Verbrauch "rechtfertigt"...
MfG Blase
Nightspider
2022-03-27, 19:00:34
Wieso gibts kein over 9000 zur Auswahl?
Geldmann3
2022-03-27, 20:56:57
Also mein Limit liegt bei rund 3680 Watt für das Gesamtsystem, dann fliegt leider die Sicherung. :freak:
WedgeAntilles
2022-03-27, 21:22:49
die 1070 ist ein Lacher im Vergleich zu heutigen Karten! TDP bei glaub ich 140W. Die 3070 hat schon 220W, die 4070 wird garantiert mehr haben.
Deswegen denke ich, die Einschätzung "die hohen Wattzahlen werden ja den größeren Modellen zugerechnet, weswegen mich die sowieso nicht erreichen werden." wird nicht helfen...
Lovelace wird ja deutlich Mehrperformance haben, da kann man also auch bequem bei der 4060 zugreifen.
Wenn die Wattzahlen innerhalb der Klassen nach oben gehen muss man u.U. einfach eine Klasse nach unten rutschen.
Bei den gemunkelten Leistungssprüngen die wir bei der nächsten Generation sehen werden ist das auch gut machbar.
Was man sonst von xx70 auf xx70 sah, wird man dieses mal auch beim Sprung auf die 4060 sehen.
Man muss eben eine gewisse Flexibilität an den Tag legen, dann wird jeder bei der nächsten GraKa Generation glücklich werden.
Für die absoluten Leistungsenthusiasten wird es traumhafte Karten geben, die eben noch mal mehr Strom ziehen.
Wer gute Leistung will, aber im Bereich 250-300W bleiben will wird glücklich werden und eine Karte bekommen, die weit mehr Leistung hat als jede aktuelle Karte die in diesem Bereich Strom will.
Und wer im Bereich 200Watt wird ebenfalls glücklich werden.
Und eine 4050 wird ebenfalls einen heftigen Leistungssprung hinlegen.
Da ist doch für fast jeden was dabei - einzig und alleine wer sagt, er will nur um die 100W verbrauchen dürfte wohl in die Röhre gucken. Unter 150W sehe ich nicht wirklich etwas.
Aber ganz ehrlich: Dann soll derjenige halt den Rechner ausschalten, dann braucht er gar keinen Strom.
Platos
2022-03-27, 22:46:25
Ohne Erneuerbare Energien ~ 250watt,
Sobald das Problem gelöst ist -> ∞
Weil erneuerbare Enerigen sind ja unendlich verfügbar ;)
Platos
2022-03-27, 23:03:40
Bei mir wäre das maximum unter 300, also habe ich 300 genommen als 299. Wobei ich auch ne 350W Grafikkarte kaufen würde, wenn sie mit 300W nur ein paar Prozent Leistung verliert. Also wenn einfach für die letzten paar Prozent noch xxx Watt oben drauf geschlagen wurde, ist mir das egal, ich kann ja das Powertarget nach unten einstellen usw. Aber hauptsache es gibt keine Peaks oder beim Start des PCs (wo das Powertarget nicht greift), kratzt mein PC nicht ab bzw. das Netzteil. So wäre zumindest die "normale" Grafikkarte. Wobei lieber deutlich unter 300W, also eher Richtung 200-250Watt. Aber es ging ja ums Maximum.
Allerdigns gibts da ne Ausnahme. Der hohe Stromverbrauch stört mich vor allem, wenn dadurch die Grafikkarten grundsätzlich im Stromverbauch steigen. Also wenn man in einer neuen Generation die Leistung hauptsächlich dadurch erreicht hat. Oder wenn man einfach schlicht ineffizienter Mist bringt (RTX 3090Ti). Wenn es allerdings einfach eine Erweiterung nach oben ist (durch mehr Die-Fläche), dann sehe ich das als SLI ohne Microruckler etc. Eine Multichip Grafikkarte mit riesen Gesammtfläche, ist quasi wie SLI, nur ohne Mikroruckler. Da finde ich es auch ok, aber nicht, wenn man den Stromverbrauch grundsätzlich in den Preisklassen (oder Leistungsklassen) erhöht. Wobei natürlich die Mehrperfomance der Generation nicht durch mehr Fläche erschlagen wird, sondern nur oben noch eine Grafikkarte oben drauf mit mehr Fläche als Erweiterung des Produktfolios dient. Eben eine Art "Ersatz" für SLI. Eine gute Architektur (und somit Energie und Flächeneffizienz) muss da natürlich Pflicht sein, damit es für mich noch ok wäre.
Also man könnte es auch als eine Art Mischung aus 'Transistor(Fläche)/Watt' und 'Leistung pro Watt" betrachten und einem absolutem Wert betrachten. Also ich finde, der Stromverbrauch sollte im Sch itt nicht steigen. Wenn nur ein paar wenige riesige (multichip) Grafikkarten kaufen, ist das ja noch ok. Wenn aber grundsätzlich der Stromverbrauch immer weiter steigt, nicht.
Natürlich ist das nur Theorie. In der Praxis wäre eine solche Karte nicht einfach doppelt so teuer, sondern sie hätte natütlich einen Enthusiasten-Deppen-Aufschlag und sowas unterstütze ich dann wieder nicht. Also in der Praxis würde ich es vermutlich nie unterstützen.
Converible
2022-03-27, 23:56:14
Lovelace wird ja deutlich Mehrperformance haben, da kann man also auch bequem bei der 4060 zugreifen.
Wenn die Wattzahlen innerhalb der Klassen nach oben gehen muss man u.U. einfach eine Klasse nach unten rutschen.
So einfach ist das gar nicht. Nvidia versucht das, wie ich finde mit Erfolg, dadurch zu verhindern, dass man die Karten in der unteren Klasse mit wenig Speicher ausstattet. Wenn mir eine 3070 von der Leistung her ausreicht, ich aber mehr als 8 GB Speicher haben möchte, um meine Texturen auf max. immer stellen zu können, dann schaue ich in die Röhre und muss auf die 3080 ausweichen, die eben mehr als 300 W als Limit hat.
Klar, es gibt auch die 3060 mit 12 GB, aber die ist dann wiederum von der Leistung nicht mehr ausreichend, für einen, der die Leistung einer 3070 haben möchte...
Alernativ konnten die Leute auf AMD ausweichen, allerdings nur die, wenn sie die Leistung unter Raitracing für weniger wichtig hielten.
Bei AMD wiederum ist die unterste Klasse sehr stark beschnitten. Siehe die verkrüppelte 6500XT
Geldmann3
2022-03-28, 00:35:02
Bei mir wäre das maximum unter 300, also habe ich 300 genommen als 299. Wobei ich auch ne 350W Grafikkarte kaufen würde, wenn sie mit 300W nur ein paar Prozent Leistung verliert. Also wenn einfach für die letzten paar Prozent noch xxx Watt oben drauf geschlagen wurde, ist mir das egal, ich kann ja das Powertarget nach unten einstellen usw. Aber hauptsache es gibt keine Peaks oder beim Start des PCs (wo das Powertarget nicht greift), kratzt mein PC nicht ab bzw. das Netzteil. So wäre zumindest die "normale" Grafikkarte. Wobei lieber deutlich unter 300W, also eher Richtung 200-250Watt. Aber es ging ja ums Maximum.
Passend zum Thema der Senkung der Leistungsaufnahme habe ich gerade einige interessante Messungen mit meiner RTX 3090 (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12963231#post12963231) aufgestellt.
Leonidas
2022-03-28, 03:45:11
ich glaub es ging nur um den verbrauch, nicht was durch den verbrauch an konsequenzen entsteht.
die frage ist eher: was darf die karte an strom verbrauchen, bevor du sagst das der stromverbrauch selbst zu hoch ist.
Korrekt.
Reden wir hier von der offiziellen TDP der Karte oder dem Powerlimit bei dem ich diese maximal betreiben werde?
Schwierige Fragestellung. Aber ich denke eher ersteres. Ich denke, Du wirst Dir auch nicht zutrauen, eine 600W-Karte auf 250W herunterzubringen. Alles hat da sein Limit.
Ich freue mich schon auf den Sommer, wenn meine 250W Grafikkarte den Raum unerträglich aufheizt ...
Respektive meine Stromrechnung (wegen AirCon) auf das Doppelte steigt.
etp_inxession
2022-03-28, 06:34:55
max. 250 Watt, besser weniger.
Loeschzwerg
2022-03-28, 08:05:46
Absolutes max. wären bei mir 300W, wenn denn wirklich etwas Besonderes dabei herumkommen würde. Ganz allgemein versuche ich aber eher die benötigte Performance mit so wenig wie möglich zu erreichen.
lilgefo~
2022-03-28, 08:45:19
Mein Limit liegt da wo sich die zusätzliche Verlustleistung in erhöhter Geräuschentwicklung in meinem Custom Loop bemerkbar machen würde. Mit hörbarem Säuseln von den Radiatorlüftern zu zocken wär für mich die Mehrleistung nicht wert, da es die Immersion zerstört. Denke ab 750-800W Systemverbrauch (CPU+GPU) wäre das der Fall daher hab ich mal für 500W gestimmt.
Nazar
2022-03-28, 08:47:31
Halt mal die Hand vor den laufenden Rechner und dann erzähle mir nochmal, du könntest ein ganz spezielles 250w-Bauteil für eine gewisse Abwärme verantwortlich machen. Oder du könntest dann noch einen weiteren Unterschied zu einer 350w-Karte feststellen.
Zum Thema: die hohen Wattzahlen werden ja den größeren Modellen zugerechnet, weswegen mich die sowieso nicht erreichen werden. Eine 70er wird da wieder ganz anders zu Werke gehen, wenn auch die ihren Verbrauch nochmals erhöhen wird im Vergleich zum Vorgänger.
Habe noch eine 1070 mit einem 10700 zusammen im Rechner und das Strommeßgerät bescheinigt im Betrieb (1440p auf immer gedrosselte 60fps) Verbäuche von 170-230w, je nachdem, welches Spiel gerade läuft. Das ist für den ganzen Rechner schon erstaunlich, wenn ich mal eine 3090 + 5800x heranziehe, die manches Mal zB. in CP2077 laut youtube-Videos knapp über 700w ziehen in der Spitze. Verschlechtern werde ich mich also unweigerlich irgendwann.
Also, ich hoffe nicht, dass du auch mit dieer Methode die Temperatur des Ofen misst. Davon ab, ging es niemals, um das sondieren der Wäremerzeuger, sondern um die abgegebene Wäremenergie. Wer nicht feststellen kann, dass beim 3D Betrieb seiner GPU die Abwärem zunimmt, hat vermutlich ein Empfindungsproblem. Dass sich ein Raum Aufheizt, ist eine ganz normal pyhsikalische Reaktion und !!!!!nicht!!!!! vermeidbar. Man kann dem ja mithilfe einer AC entgegenwirken, ändert aber nichts an der Physik.
@Thema
Mein Limit ist immer die im Verhältnis gebotene Grafikleistung.
Ich finde die Umfrage irgendwie nicht sinnvoll, da es rein um den Verbrauch geht und der Zusammenhang zur gebotenen Leistung vollkommen außer acht gelassen wird.
Man könnte auch 600 Watt verbraten und nur (vollkommen übertrieben) 2 FPS Mehrleistung gegenüber einer 300 Watt GPU haben. Ergo, was bringt es mir nur nach der Wattzahl zu fragen, wenn es nicht alleine um die Stromrechnung oder Hitzeentwicklung geht? :confused:
lilgefo~
2022-03-28, 08:58:26
Ergo, was bringt es mir nur nach der Wattzahl zu fragen, wenn es nicht alleine um die Stromrechnung oder Hitzeentwicklung geht? :confused:
Du betrachtest also nur Perf/Watt sprich Effizienz. Und was ist mit dem Kühlaufwand respektive Lautstärke? Wenn man auf Lukü setzt ist Silent eh nen Fremdwort aber Wasserkühlung hält ja nun auch bei vielen Normalnutzern Einzug und damit auch die Erkenntnis, dass man auch ohne Hörsturz am PC zocken kann.
Mega-Zord
2022-03-28, 09:27:01
Ich für mich habe da kein Limit, aber meine Vorliebe für µATX ggf. schon. Aktuell läuft meine 2080 Ti mit 360 Watt und das ist thermisch am Limit.
es fehlt noch: ich baue gar keine extra Grafikkarte mehr ein...
Lowkey
2022-03-28, 09:45:17
Verbrauch egal => Separater Spiele PC
Nvidia kann man offenbar nicht so gut auf stromsparend optimieren wie AMD (MPT). Der Silent Eco Mode mittels Dualbios ist ganz nett, aber auch nicht spürbar besser wie sogenannte OC Modelle.
Könnte man noch unterteilen in Luft- und Wassergekühlt. Unter Luft hätte ich 350 Watt und unter Wasser 500 Watt gesagt.
ich glaub es ging nur um den verbrauch, nicht was durch den verbrauch an konsequenzen entsteht.
die frage ist eher: was darf die karte an strom verbrauchen, bevor du sagst das der stromverbrauch selbst zu hoch ist.
Korrekt.
Naja - die Frage war aber etwas offener gestellt, als "Wie hoch dürfen die Stromkosten sein, die eine GPU verursacht."
Ich finde es nicht sehr sinnvoll die Folgekosten einer aufwändigen Kühlung auszuklammern, wenn man sich gleichzeitig für die Stromkosten interessiert. Oder so zu tun, als ob es keine parallelen Anforderungen gäbe, die ebenfalls mit der TDP zusammenhängen.
Zumal es sowieso nicht möglich ist, die unterschiedlichen Präferenzen/Prioritäten über einen Kamm zu scheren und dann da eine Aussage herauslesen zu wollen.
Leonidas
2022-03-28, 10:35:57
Ich würde es nicht als Frage der Stromkosten sehen. Es ist eine psychologische Frage: Ab welcher TDP schaltet man innerlich ab - und sagt: "Nicht mit mir"?
WedgeAntilles
2022-03-28, 10:39:53
So einfach ist das gar nicht. Nvidia versucht das, wie ich finde mit Erfolg, dadurch zu verhindern, dass man die Karten in der unteren Klasse mit wenig Speicher ausstattet. Wenn mir eine 3070 von der Leistung her ausreicht, ich aber mehr als 8 GB Speicher haben möchte, um meine Texturen auf max. immer stellen zu können, dann schaue ich in die Röhre und muss auf die 3080 ausweichen, die eben mehr als 300 W als Limit hat.
Klar, es gibt auch die 3060 mit 12 GB, aber die ist dann wiederum von der Leistung nicht mehr ausreichend, für einen, der die Leistung einer 3070 haben möchte...
Alernativ konnten die Leute auf AMD ausweichen, allerdings nur die, wenn sie die Leistung unter Raitracing für weniger wichtig hielten.
Bei AMD wiederum ist die unterste Klasse sehr stark beschnitten. Siehe die verkrüppelte 6500XT
Ja, das stimmt. Die Ampere Generation ist Ram-Technisch weitgehend schlecht abgestimmt.
Das wird sich bei Lovelace aber wohl nicht wiederholen, bisher sind alle Ram-Ausstattungen die man da so liest sinnvoll.
Die Chancen stehen also gut, dass man bei Lovelace sehr viel einfacher und angenehmer entscheiden können wird, welche Leistungskategorie (und damit Stromverbrauchskategorie) man möchte.
Ohne, dass man dann im Ram-Bereich schlecht besetzt wäre.
Klar, das ist noch nicht garantiert, aber bisher deutet jedenfalls alles darauf hin.
Ich würde es nicht als Frage der Stromkosten sehen. Es ist eine psychologische Frage: Ab welcher TDP schaltet man innerlich ab - und sagt: "Nicht mit mir"?
Wenn die Kosten bzw. persönlichen Umstände (Abwärme im Zimmer, Lautstärke, ökologische Folgen, etc.) irrelevant sind, ist mir der Verbrauch im Prinzip egal.
Ich verstehe allerdings die Quintessenz der Umfrage nicht. Psychologisch entstehen Grenzen ja nur durch limitierende Faktoren (wie den o.g.).
Leonidas
2022-03-28, 11:41:01
Ich denke, genau das ist gemeint. Nur eben nicht nur bezogen auf den Strompreis und eigentlich egal des konkreten Grundes. Relevant ist wie gesagt: Ab wann sagt man "Feierabend". Manches sieht es aus Praktikabilitäts-Erwägungen, anderer will die Stromrechnung nicht, der Dritte sieht zuerst ökologische Grund. Der Grund ist egal, die Frage geht nach dem persönlichen Schwellwert.
Ich denke, genau das ist gemeint. Nur eben nicht nur bezogen auf den Strompreis und eigentlich egal des konkreten Grundes. Relevant ist wie gesagt: Ab wann sagt man "Feierabend". Manches sieht es aus Praktikabilitäts-Erwägungen, anderer will die Stromrechnung nicht, der Dritte sieht zuerst ökologische Grund. Der Grund ist egal, die Frage geht nach dem persönlichen Schwellwert.
Danke für die Klarstellung :)
nairune
2022-03-28, 11:45:50
Ich würde es nicht als Frage der Stromkosten sehen. Es ist eine psychologische Frage: Ab welcher TDP schaltet man innerlich ab - und sagt: "Nicht mit mir"?
Psychologisch ist mir das doch völlig egal. Na klar geht es hier um objektive Faktoren wie Kosten, Umweltbelastung, Abwärme und Lautstärke. Wenn es all das nicht gäbe, würde die Frage überhaupt nicht gestellt werden. Das wäre ja sonst wie "Wie klein darf das Speicherinterface sein, bevor es eine psychische Belastung wird?" - völlig abwegig.
Ich habe für 200W abgestimmt und im Sommer schalte ich meine 6900 XT sogar noch weiter runter (130W PL, ca. 150W gesamt), weil ich keine Lust auf die Abwärme habe. Ja, man spürt 100W mehr/weniger auf mehrere Stunden ziemlich deutlich.
gbm31
2022-03-28, 12:25:01
Da ich einfach nur SPIELEN will, will ich dafür keine kW verbraten.
-> 250W, sonst wird runtergebremst oder eben nicht gekauft.
Die aktuelle Entwicklung tut meiner Meinung alles um den PC zu beerdigen. (jaja, die alte Leier. Damals wars 1000€ PC zu 400€ Konsole. Schau mal was du heute für 1000€ im PC hast. Danke Jensen und Jünger...)
Am TV vom Sofa aus mit einer AMD APU auf 720 spielen erdet...
bad_sign
2022-03-28, 12:31:24
Aus Erfahrung -> 250W Verbrauch. Den kompletten PC unter 400W halten und man kann auch an heißen Sommertagen zocken ohne Hitzschlag.
Platos
2022-03-28, 12:40:11
Passend zum Thema der Senkung der Leistungsaufnahme habe ich gerade einige interessante Messungen mit meiner RTX 3090 (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12963231#post12963231) aufgestellt.
Danke für's verlinken! Hätte ich sonst nie mitbekommen, bin eig. nicht in diesen Unterforen (GPU und CPU). Nur im Speku und Tech usw.
Psychologisch ist mir das doch völlig egal. Na klar geht es hier um objektive Faktoren wie Kosten, Umweltbelastung, Abwärme und Lautstärke. Wenn es all das nicht gäbe, würde die Frage überhaupt nicht gestellt werden. Das wäre ja sonst wie "Wie klein darf das Speicherinterface sein, bevor es eine psychische Belastung wird?" - völlig abwegig.
Das meinte ich. Die Fragestellung ist irgendwie nicht wirklich schlüssig.
Ohne persönliche Umstäne: Kein Limit
Mit persönlichen Umständen: 250W
Leonidas
2022-03-28, 13:42:37
Wenn die Fragestellung nicht anspricht, der hat IMO schlicht kein wirkliches Limit. Was überhaupt kein Problem ist, jeder nach seinem Gusto.
Kein Limit Solange ich die Leistung will und brauche , was bisher immer da Fall war , gerade VR oder 4k 144Hz frist mächtig GPU Leistung.
Das heist aber nicht das ich hohen Verbrauch durch schlechte Effizienz zu kaum mehr Leistung wie z.B. bei Fermi oder Vega gut heiße , wenn es nur um einstellige Leistungsgewinne durch überzogene Bertiebspunkte geht kaufe ich bei Featuregleichheit bei der Konkurenz wenn möglich.
Ronald79
2022-03-28, 20:38:29
250W sind meine persönliche Grenze, ich bin froh eine RX 6800 ergattert zu haben.
Irgendwann ist es auch teuer bei 1-2 Stunden ab Tag spielt es fast keine Rolle. Aber bei 8 Stunden schon, dann kommt man bei 350W Gesamtverbrauch schon auf 1000kWh pro Jahr.
Legendenkiller
2022-03-30, 09:02:38
<200W
Wobei da eine z.b. 6800/3070 auf 150W lowvolted mit zählt.
Stromkosten sind mir egal.
Mir gehts um Wärme / Lautstärke der Lüftung die <30dB sein muss.
Das schafft von den Gamingkarten @stock aktuell nur die Noctua 3070.
PS: und zusätzliche 200W merkt man im Sommer sehr wohl, auch in einem 30m² Raum.
Das macht dann den Unterschied, wenn man bei 35grad außentemp. früh bei 23grad startet abends noch angenehme 27grand oder 30grad+ in der Bude hat.
Weil man die Bude schon durch die Außenwärme aufheizt und dann jedes zusätzliche Watt eine noch schnellere Erwärmung verursacht.
Wer eh ab Mittag die Fesnter aufmachen muss weil er bei 35grad + liegt ... iss natürlich egal.
Und klar man kann das wieder mit einer Klimaanlage lösen... die macht aber auch wieder Krach, verbraucht Strom, erzeugt ein unschönes Raumklima und man muss ein Loch in die Wand kloppen und trausen eine riesen Trümmer anbauen. (geht nicht immer zu machen)
Argo Zero
2022-03-30, 09:05:47
250 Watt
Ich habe keine Lust auf die Hitze im Sommer und Lärm.
Hatte einmal ne Karte mit so viel Watt und das war eine Heizung und Fön zugleich.
Meine 5700XT lasse ich bei 170 Watt Max laufen und es ist angenehm erträglich von Lautstärke.
Die Umfrage ist interessant und zeigt deutlich auf das die Hersteller komplett falsch liegen. Steigende Verbräuche will der Großteil wegen der negativen Effekte nicht.
Interessiert weder AMD, noch Intel, noch Nvidia. Der Aufwand die Leistung anders zu steigern als über Mehrverbräuche ist denen zu aufwendig. Wird Zeit das es dort endlich weiterreiche Beschränkungen gibt? Wo soll das enden, Gaming PC mit 2,5kwh. Verrückt ist das, was sich da anbahnt. Dekadent und komplett aus der Zeit gerissen.
Leonidas
2022-03-30, 10:34:04
Es ist IMO für die Hersteller schwer zu lernen. Dies gedanklich zu verbauen und letztlich bei der Planung zukünftiger Generationen zu beachten - das dauert sicherlich mehr als nur 1-2 HW-Generationen.
WedgeAntilles
2022-03-30, 10:59:35
Die Umfrage ist interessant und zeigt deutlich auf das die Hersteller komplett falsch liegen. Steigende Verbräuche will der Großteil wegen der negativen Effekte nicht.
Interessiert weder AMD, noch Intel, noch Nvidia. Der Aufwand die Leistung anders zu steigern als über Mehrverbräuche ist denen zu aufwendig. Wird Zeit das es dort endlich weiterreiche Beschränkungen gibt? Wo soll das enden, Gaming PC mit 2,5kwh. Verrückt ist das, was sich da anbahnt. Dekadent und komplett aus der Zeit gerissen.
Nicht vergessen: Umfragen haben mit dem tatsächlichen Kaufverhalten nicht zwingend etwas zu tun.
(Bei Umfragen ist Verbrauchern IMMER die hohe Qualität der Lebensmittel wichtig. Und natürlich gute Tierhaltung und so weiter. Gekauft wird dann aber das billigste. Und wenn es noch mal irgendwo 10 Cent billiger ist wird das gekauft.
BSE vor vielen Jahren brachte Rindfleisch in Verruf - und es wurde die Debatte verstärkt, dass bei der Aufzucht bessere Bedingungen herrschen müssen, besseres Futter (BSE kam ja - zumindest eine Theorie, ob das belegt ist oder nicht weiß ich nicht, spielt auch keine Rolle - durch Fischmehl das beigesetzt worden war.)
Der Absatz an Rindfleisch brach massiv ein. Das ging einige Zeit so.
Weißt du, mit welcher Aktion die Supermärkte den Rindfleischverbrauch wieder auf das ursprüngliche Niveau gehievt hatten?
Durch PREISSENKUNGEN. Die Problematik entstand durch billig, billig, billig.
Und angeblich waren alle Verbraucher bereit, mehr zu bezahlen, jedenfalls wenn man den Umfragen glaubte.
Gelöst wurden die sinkende Nachfrage dann dadurch, dass man es - zeitweise - noch billiger machte.
Absurd², aber die Realität.)
Davon abgesehen sind die Stromverbräuche ja primär im High-End so hoch, 3080, 3090, 6900XT.
Die kauft aber sowieso nicht die breite Masse, die ja im Bereich 6600, 3060, 6800, 3070 und ähnlichem unterwegs ist.
Und die Umfrage zeigt ja auch, dass eben nicht jeder mit >300W ein Problem hat. Oder mit >400W.
Es gibt einige, die sich so eine Karte kaufen.
Daher sehe ich jetzt nicht, wo die Hersteller genau falsch liegen?
Klar braucht eine 3090TI noch mal mehr Strom, aber wieviel Prozent der produzierten GraKas wird denn eine 3090TI sein? 0,01%? Das ist doch minimal.
Und bei Lovelace / RNDA 3 werden wir in der Spitze eben noch mal höhere Werte sehen, so what. Auch das werden wieder nur 0, irgendwas Prozent sein, für die breite Masse völlig uninteressant.
Ich habe es schon zig mal geschrieben, aber hört doch bitte auf den Verbrauch eines Spitzenmodells anzuschauen.
Du wirst bei Lovelace/RDNA3 auch Karte mit 150 Watt bekommen, mit 200W, mit 250W und so weiter.
Aber eben auch mit 450W, vielleicht auch eine 4090TI mit 600 Watt, wer weiß.
Nur wird keiner gezwungen so ein Teil zu kaufen (für 99,9% dürfte alleine ein Preis von 2000 Euro oder ähnlichem genügen, dass diese Karten völlig uninteressant sind.)
Jeder kann sich die Verbrauchskategorie kaufen die er will - und er wird in jeder dieser Kategorie deutlich mehr Performance bekommen als Ampere/RNDA2 in dieser Verbrauchskategorie liefert.
Was will man denn mehr? :confused:
BlacKi
2022-03-30, 10:59:58
Die Umfrage ist interessant und zeigt deutlich auf das die Hersteller komplett falsch liegen. Steigende Verbräuche will der Großteil wegen der negativen Effekte nicht.
Interessiert weder AMD, noch Intel, noch Nvidia. Der Aufwand die Leistung anders zu steigern als über Mehrverbräuche ist denen zu aufwendig. Wird Zeit das es dort endlich weiterreiche Beschränkungen gibt? Wo soll das enden, Gaming PC mit 2,5kwh. Verrückt ist das, was sich da anbahnt. Dekadent und komplett aus der Zeit gerissen.
die umfragewerte können sich nicht auf alle menschen beziehen sondern nur auf die leser der seite.
etwas aufschlussreicher ist das hw survey von steam, aber auch das bezieht sich nur auf die steamuser, aber wenigstens weltweit. dort siehst du die höchste verbreitung bei ca 120-150w.
soll die schlussfolgerung sein, das die grafikkarten tdp auf 150w begrenzt sein sollte? nein.
bis gestern gab es keine non oc karten mit tpd von über 350w. aber alle umfragewerte über 349w zusammengezählt ergeben brutale 1/3 der angebotenen tdp bereiche. nur so mal angemerkt, bis zur 3090 gabs soviel tdp garnicht.
für mich lässt dieser fakt nur eine schlussfolgerung zu, das interesse an karten mit keinem limit oder sehr hohen verbräuchen ist gigantisch.
das limit ist wohl erst erreicht, wenn man es nicht mehr richtig kühlen kann. und das kann man nicht pauschal beantworten.
WedgeAntilles
2022-03-30, 12:28:49
für mich lässt dieser fakt nur eine schlussfolgerung zu, das interesse an karten mit keinem limit oder sehr hohen verbräuchen ist gigantisch.
das limit ist wohl erst erreicht, wenn man es nicht mehr richtig kühlen kann. und das kann man nicht pauschal beantworten.
Das Interesse im Enthusiastenbereich!
Für die breite Masse ist das uninteressant, was aber primär natürlich am Preis der GraKas liegt.
Eine GraKa mit 300W wie die 3080 ist nicht wegen der 300W uninteressant für die meisten sondern wegen dem Preis.
Aber du hast natürlich recht, im Enthusiastenbereich (was ein Forum wie das 3DC per Definition ist), ist das Interesse groß.
Auf den Gesamtmarkt ist das so gut wie nichts, aber von einer 3090TI werden auch so gut wie keine gebaut.
Eine 3060 wird 1000 mal mehr produziert. (die 1000 stehen jetzt für "wahnsinnig viel mehr" und nicht als exakte Zahl.)
Und diese Gruppe wird jetzt eben von Nvidia und AMD bedient.
Es ist ziemlich bezeichnend, dass in unserer ach so tollen Zeit damit viele nicht mehr klarkommen.
OMFG, ein Konsumverhalten das sich nicht 1:1 mit meinem deckt - das ist des Teufels!!!111
BlacKi
2022-03-30, 13:29:37
ich hoffe, nv bringt die 4070 mit 1000w tdp limit. for the haters:P
Leonidas
2022-03-30, 15:21:05
OMFG, ein Konsumverhalten das sich nicht 1:1 mit meinem deckt - das ist des Teufels!!!111
Sofort canceln, diese Un-Personen!
Sprich: Jeder darf gern, wie er möchte. Vorschriften für andere sind gaga und des Menschen unwürdig.
Lehdro
2022-03-30, 15:49:59
Es ist IMO für die Hersteller schwer zu lernen. Dies gedanklich zu verbauen und letztlich bei der Planung zukünftiger Generationen zu beachten - das dauert sicherlich mehr als nur 1-2 HW-Generationen.
Die Hersteller haben ihre Lektion schon gelernt. Green & Eco will keiner als primäre Wahl.
Nicht vergessen dass wir das ganze Thema schon vor ein paar Jahren (2009-2010) hatten:
Nvidia Green Edition (https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/11356-neue-details-zu-den-green-editions.html) (9600GT (https://www.techpowerup.com/gpu-specs/geforce-9600-gt-green-edition.c3687) + 9800GT (https://www.computerbase.de/2009-03/zotac-stellt-geforce-9800-gt-green-edition-vor/)
Powercolor Go! Green Serie (https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Powercolor-erweitert-die-Go-Green-Serie-707157/)
Palit GTS 250 E-Green (https://www.techpowerup.com/gpu-specs/palit-gts-250-e-green-1-gb.b5571)
Zotac Eco Edition (https://www.zotac.com/de/page/zotac-eco-edition) [1 (https://www.dvhardware.net/article40240.html)][2 (https://www.zotac.com/at/product/graphics_card/gts-450-eco-edition-0)]
Die Karten bei denen das wirklich relevant ist, sind für einen kleineren Kundenkreis beschränkt, bei dem das ein eher sekundäres Merkmal ist. Hier zählt primär Leistung. Stromkosten beim Gaming kenne ich auch vorrangig als explizit deutsches Problem, unseren Strompreisen geschuldet (seit quasi immer). Von daher interessiert das bei den Firmen eh keinen Schwanz, solange man entweder schneller oder effizienter als der Konkurrent ist, im Optimalfall natürlich beides. Aber der "effizient" Vorteil wird eh nur gespielt wenn man ihn spielen muss, siehe AMD/Intel/NV zu unterschiedlichen Zeiten. Auf NVs Green Editions folgte wahnwitzigerweise direkt Fermi. Und auf Intels damals sehr effiziente Skylake Serien folgte der Wattwahnsinn. Ist schon komisch manchmal. :freak:
Leonidas
2022-03-30, 16:21:18
Sehe ich in einer gänzlich anderen Schiene. Das waren Eco-Ausführungen von Mainstream-Modellen. Wir reden hier von Eco-Ausführungen von HighEnd-Modelllen.
BlacKi
2022-03-30, 16:29:45
weils keinen sinn macht mehr geld für einen nachteil auszugeben. das kann man nämlich auch selbst tun. das ist es aber was die leute scheinbar fordern.
Leonidas
2022-03-30, 16:35:58
Das ist die Frage: Kaufen es die Leute tatsächlich? Da bin ich auch noch unentschieden.
Mehr kosten darf es keineswegs. Weniger geht aus Hersteller-Sicht nicht - weil man ansonsten den Green-Schalter ausmacht und kostenlos Mehrperformance hat.
Vermutlich wäre es besser, das nicht im Rahmen von extra Green-Editions abzuhandeln, sondern mittels Schalter im Treiber. Thema einer der nächsten Umfragen.
WedgeAntilles
2022-03-30, 16:44:39
Vermutlich wäre es besser, das nicht im Rahmen von extra Green-Editions abzuhandeln, sondern mittels Schalter im Treiber. Thema einer der nächsten Umfragen.
Im Treiber fände ich klasse.
Ich bin jemand, der sehr faul ist, ich möchte mich nicht mit etwas rumärgern müssen. (Auch habe ich immer Angst etwas zu vermurksen.)
Daher will ich selber eher ungern an meinen GraKa Einstellungen rumfummeln müssen.
(Hätte ich aber gemacht, falls ich z.B. eine 3080 gekauft hätte. 2% weniger Performance für 10% weniger Verbrauch? Gerne.)
Unter 250W ist es mir eigentlich egal, aber bei ca. 300W lohnt es sich dann schon ein bisschen Arbeit zu investieren.
Da käme mir eine Version im Treiber, die mir das Gefummel (und die Gefahr es zu vermurksen) abnimmt sehr gelegen.
Warum gibt es das eigentlich noch nicht?
Wäre das so viel Arbeit für das Treiberteam? Damit könnte man sich als Hersteller doch wunderbar einen grünen Anstrich geben. Ohne wirklich etwas tun zu müssen.
Oder läuft man Gefahr, dass das auf den "Eco" Einstellungen ggf. instabil ist bei dem einen oder anderen und man dann schlechte Presse dadurch befürchtet?
BlacKi
2022-03-30, 16:50:52
Das ist die Frage: Kaufen es die Leute tatsächlich? Da bin ich auch noch unentschieden.
Mehr kosten darf es keineswegs. Weniger geht aus Hersteller-Sicht nicht - weil man ansonsten den Green-Schalter ausmacht und kostenlos Mehrperformance hat.
Vermutlich wäre es besser, das nicht im Rahmen von extra Green-Editions abzuhandeln, sondern mittels Schalter im Treiber. Thema einer der nächsten Umfragen.
der hersteller hat aber fast dieselben kosten, lediglich bei den vrm und ein paar wenige euro am kühler kann man sparen. hat aber zusätzliche kosten bei der entwicklung.
Warum gibt es das eigentlich noch nicht?
gibts schon in hardware gaming und quiet mode. die verändern zum teil auch die tdp, weil eben ein anderes bios geladen wird. nur die unterschiede in den tdp sind nicht groß anders. früher hätte man die bios modden können und dann selbst einen eco switch gebastelt. allerdings geht das ja auch über den afterburner.
Leonidas
2022-03-30, 17:03:37
Quiet Mode ist nicht das, was hier gesucht wird. "Teilweise" TDP-Änderung ist nix halbes und ganzes. Es muß satt runtergehen mit der TDP, dafür dann auch eventuell Undervolting. Und das von AMD & NV und nicht das Klein-Klein der Grafikkarten-Hersteller.
Lehdro
2022-03-30, 17:48:19
Sehe ich in einer gänzlich anderen Schiene. Das waren Eco-Ausführungen von Mainstream-Modellen. Wir reden hier von Eco-Ausführungen von HighEnd-Modelllen.
Die 3090 IST die Eco 3090 Ti.
Wer noch weniger will soll die 3080 Ti kaufen.
Wer noch weniger will soll die 3080 12 GiB kaufen.
Wer noch weniger will soll die 3080 kaufen.
...
Bei NV gibt es ja wohl mehr als genug Auswahl in dem Leistungsbereich. Selbiges bei AMD, die Abstufungen anhand des Verbrauchs sind doch schon da. Bei AMD gibt es sogar einen UV Schalter im Treiber oder sogar den TDP Slider, viele AIBs bieten mehrere BIOS Versionen mit teilweise niedriger TDP.
Die Sache ist doch nicht ob die Hersteller so etwas nicht anbieten, sondern dass die Kunden das augenscheinlich nicht extra als Modell brauchen, weil alles schon mehr oder minder abgedeckt wird.
Leonidas
2022-03-30, 18:01:01
Kann man so sehen. Aber beide Karte kommen auch mit 1,5J Abstand auf den Markt. Sinnvoll ist es, wenn das Angebot von Anfang an existiert.
crux2005
2022-03-31, 14:31:58
Für mich ist und bleibt es [x]250W. Viel mehr ist mit LuKü einfach nicht drin und es wird entweder zu warm oder laut (oder beides). Hatte mal 400W GPU (GTX 480) + 130W CPU (i7-4930K) mit WaKü und gerade im Sommer war das neben mir ein Heizkörper den ich nicht vermisse. Trotz klimatisierten Räumen...
Legendenkiller
2022-04-01, 08:58:50
...
Powercolor Go! Green Serie
...
die hatte ich, war eine wunderschöne GRaka.
Das Boardlayout war ein Fest. Dagegen sah das Referenzlayout aus wie traufgekotzt.
Keine Hotspots, hochwertige Bauteile ... auchso und natürlich Passiv gekühlt.
Die war damals innerhalb weniger Tage ausverkauft. Also eine gewissen Bedarf gibt es dafür.
Und ich würde auch heute genau sowas kaufen wollen.
6900XT ULV mit ein auf 200W ausgelegten maximal effizenten Versorgung und einem 3,5Slot Kühler mit super Silent Lüftern :-)
PS: Silentmaxx bekommt eine 3080 mit 300W nachträglich auch auf passiv umgerüstet hin. Also gehen tut es.
Vergeßt bei der Umfrage bitte nicht, dass hier warscheinlich die überwiegende Mehrheit "Nerds" sind. Otto normal Verbraucher, der beim Kauf eines Kühlschranks auf die Effiziens Siegel achtet wird hier kaum vertreten sein.
Und dass "Liebhaber" schon mal bereit sind mehr aus zu geben ist ja hinglänglich bekannt (wie sonst könnt man so was banales wie Schuhe für 10.000,-€ und mehr verkaufen *g*).
9x0 und 10x0 hatten die richtige Tendenz. Danach setzte das Hirn aus :(.
GerryB
2022-05-22, 08:37:41
Ich plädiere für "kein Limit" undzwar sowohl für Watt als auch Volt.
Die Beschränkungen bei den Volt sind nur Beutelschneiderei, um teure Modelle zu verkaufen.
Ich wünsche mir möglichst offene Treiber/Bios, damit Jeder selbst optimieren kann.
(AMD ist mir da eindeutig zu restriktiv)
Kann doch Jeder im Winter mal ein bisschen mehr heizen und im Sommer weniger.
(Wer das ganze Jahr nur das Werkssetting benutzt ist ... gähn)
z.Bsp. ne normale 6900xtx ohne H könnte mit mooore Volt besser funzen: im Anhang die Volt@EVC2 gemoddet
(gerade ne Ref+Waterblock sind net unerschwinglich)
Thunder99
2022-05-22, 12:40:18
Danke Leonidas,
deine News/Diskussion zeigt eindrücklich, dass in der Vergangenheit der Stromverbrauch maßvoll gestiegen ist oder auch stagniert ist. Dennoch gab es deutliche Performance Steigerungen. Die Titan/Refresh Versionen haben zwar das TDP Limit nach oben geschraubt, dies jedoch mit den Nachfolgenden Generation nur maßvoll.
Turing litt unter der 12nm Samsung Node, daher auch aus meiner Sicht verständlich dass es gestiegen ist.
Ampere hat aber den Vogel abgeschossen, insbesondere mit der 3090Ti (100W mehr für 10%)
ADA bleibt spannend, befürchte aber nichts gutes. Hoffentlich hat man eine Wahl...
Meine 1080Ti 250W+ Grafikkarte heizt schon genug :freak: und die Stromkosten kennen nur eine Richtung, deutlich mehr...
Wozu künstliche Limits? Maximale Leistung muss die Devise sein. Alles andere ist Verarsche.
bbott
2022-05-22, 15:56:41
Ohne Erneuerbare Energien ~ 250watt,
Sobald das Problem gelöst ist -> ∞
:freak: Raum Temperatur spielt keine Rolle und auch erneuerbare gehen durch Herstellung zu lasten der Umwelt. Aber eine unendlich ohne Stromrechnung wird dich definitiv stoppen :P
Will wieder Karten unter 150W sehen mit ordentlicher mehr Performance.
THUNDERDOMER
2022-05-22, 16:34:27
Max 230W für Grafikkarte reichen. Der Computer soll ja auch nicht zum Heizung und Stromhungrige Kiste werden.
Wozu braucht man Videospiele ultrarealistische Grafik wie im echten Leben? Noch ne Monitor 480Hz müssen her usw...
Ein Videospiele sollen Fantasie bleiben und nicht zur Realismus werden. Und noch Heizkiste innerhalb wenige Stunden zocken zb. 200€ für Stromrechnung zahlen.
hardtech
2022-05-23, 10:20:20
bin für grafikkarten mit dem fokus: maximale effizienz ähnlich wie es im notebook-sektor ist, wo sich die nachteile eines zu hohen verbrauchs direkt wiederspiegeln mit wenig akkulaufzeit und nervigen lüftergeräuschen.
ich hatte eine 1070 gamerock und eine rx6600 gegeneinander getestet mit dem spiel world of tanks mit max settings und im fenstermodus bei gleicher pixelanzahl. habe beide undervoltet betrieben. das ergebnis:
die 1070 verbraucht ca. 60-90w, rx6600 liegt bei 28-38w.
das macht sich bemerkbar bei lüfterdrehzahl und erwärmung des kleinen raumen, wenn man fenster und tür geschlossen hält und mehrere stunden zockt.
was ich damit sagen will: ich verzichte lieber auf pixelfülle und nehme dafür energieersparnis zusammen mit wenig hitze und leiserem betrieb.
GerryB
2022-05-23, 15:20:05
was ich damit sagen will: ich verzichte lieber auf pixelfülle und nehme dafür energieersparnis zusammen mit wenig hitze und leiserem betrieb.
... ist im Sommer ne Überlegung wert, z.Bsp. Chill 57fps statt 60fps@60Hz und 1836p statt 2160 bringt schon Was bei mir
(ob man dann noch RSR benutzt, um wieder auf 4k zu kommen muss man anhand der Bildqualität entscheiden)
Kann leider net in Originalgröße hochladen, daher verkleinert mit weniger Farben.
(weil Leo nach Sparmaßnahmen/Treiber gefragt hat, mal Cappen der GFX@MPT und autoUV benutzt, wäre zusätzlich zu Bios A/B möglich)
noltion
2022-05-23, 15:29:30
200 watt.
das reicht mir. ich bin sozialhilfeempfänger. mein letztes setup war 1660s/amd ryzen 5 2600. die 1660s verbraucht ca 125 watt. ich fand es schön.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.