PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Wann ist es genug beim Grafikkarten-Stromverbrauch?


Leonidas
2021-07-10, 16:30:59
Link zur Umfrage:
https://www.3dcenter.org/umfrage/umfrage-wann-ist-es-genug-beim-grafikkarten-stromverbrauch

Link zur Umfrage-Auswertung:
folgt

Rabiata
2021-07-10, 16:55:03
Ich schaue bewußt eine Klasse tiefer, ausgehend von meiner uralten Radeon HD 7850. Die hat 120W TDP und galt seinerzeit als gute Mittelklasse.
Heute würde ich z.B. eine RX 5500 XT nehmen, die nur als Mainstream gilt. Oder eine 6600, wobei da die Specs noch nicht genau bekannt sind.

In absoluten Zahlen verbrät die RX 5500 XT dasselbe wie die HD 7850, aber ich würde zumindest die Eskalation beim Verbrauch nicht mitmachen.

schreiber
2021-07-10, 16:59:58
Langfristig wird man keine andere Wahl haben, wenn man was schnelleres im Rechner haben möchte. Die Fertigungsstrukturen sind halt am Ende bzw. nahe dem Ende.

[x] Ich suche nach dem Sweet Spot. Preis, Leistung, Leistungsaufnahme, Geräuschkulisse....

Sweepi
2021-07-10, 17:12:25
Ich hätte gerne deutliche Fortschritte bei Performance/Watt.
Das höhere „Watt-SKUs“ angeboten werden, ist ok.

von Richthofen
2021-07-10, 17:12:53
Es sollte auch eine AMD-Tabelle geben.

Lyka
2021-07-10, 17:13:40
Es sollte auch eine AMD-Tabelle geben.


Ja, das habe ich auch vermisst.

bloodflash
2021-07-10, 17:19:10
Bei der aktuellen Diskussion über Energiewende und Klimawandel empfinde ich die Diskussion nur noch als zynisch.

Die aktuelle RX570/8GB ist für mich schon over the top. Ist im Treiber aktuell mit einem Powerlimit von -15 eingestellt. Der Wettkampf der Hersteller um jeden Benchmarkpunkt führt aktuell zu Modellen, die mit 20% weniger Verbrauch gerade mal 5% Performance einbüssen. Eine 6700 ohne XT mit 12GB aber max. 150W wäre für mich das Höchste der Gefühle.

Bei CPUs reichen mir die 65W-Varianten mit zusätzlicher Begrenzung des PL auch aus. Z. B. Ein 5700G. Das führt dann auch zu einem max. 400W Netzteil und damit zusätzlichen Einspareffekten.

Die Leistungsspitze finde ich einfach nur noch dekadent, ineffizient und unnötig. Wenn ich dann noch die Aufrüstfrequenz der PCMR und vollkommen ausufernden Übertaktungsergebnisse sehe *kopfschüttel*

Blase
2021-07-10, 17:27:41
Bin nicht ganz sicher, wo ich mich wieder finde.

Grundsätzlich hätte ich gerne das frühere Niveau bezüglich Stromverbrauch, kauf(t)e aber ungeachtet dessen trotzdem (3080). Letztlich würde ich aber auch ein noch höheren Verbrauch akzeptieren, wenn denn die Leistung stimmt. Für letzteres, statt ersteres, habe ich entsprechend gestimmt...

MfG Blase

Sweepi
2021-07-10, 17:32:32
Bei der aktuellen Diskussion über Energiewende und Klimawandel empfinde ich die Diskussion nur noch als zynisch.


Das ist leider ein hauefiges Missverständnis. Die Energiewende ist geschafft, wenn alle Energie nachhaltig gewonnen/erzeugt wird. Selbsteinschränkungen helfen nur den Leuten, die auf Kosten der Allgemeinheit das Problem länger ignorieren (dürfen).

Zudem ist die Verhältnismäßigkeit zu beachten: Mal überschlagen, wie weit der Jahresverbrauch eines Gaming-PCs mit einem Auto fahren kann.

Fusion_Power
2021-07-10, 17:37:49
Bei 75W GPU TDP ist bei mir Schluss, aber ich bin auch nicht mehr der große Zocker. Und ausgerechnet Apple hat mit dem M1 gezeigt, dass man ordentliche Grafikleistung auch mit bedeutend weniger TDP erreichen kann, zumindest theoretisch. Deren aktuelle iGPU soll aufm Papier ja ne GTX 1650 übertreffen, das wäre viel Leistung für die läppischen 10W TDP. Wenn die Treiber das nur in Games widerspiegeln täten. :usad:
Intel hat mit dem mobilen Tiger Lake und der XE GPU auch aufgeholt was Leistung angeht, aber da ist ebenfalls noch Luft nach oben.
Wären dedizierte GPUs dermaßen effizient, könnte man sicher noch wesentlich mehr Leistung pro Watt raus kitzeln, also zumindest ich brauch aber keine 200W GPU, ist eh schon viel zu warm im Sommer hier unterm Dach wo mein PC steht. :D

Sardaukar.nsn
2021-07-10, 20:15:04
Der GPU bzw. Gaming Markt entwickelt sich halt in beide Richtungen. Die Leistung von mobilen Geräten mit Akku ist heute schon enorm und wird sich bestimmt noch steigern. Diablo Mobile könnte da den Durchbruch bringen. Auf der anderen Seite entwickelt sich ein High-End Markt der mit anderen Männerhobbys wie Fahrrad oder TV/Audio/HiFi. Da sind wir im PC Bereich noch lange nicht am Ende der Fahnenstange, eher erst am Anfang. Ich freue mich aber die große Reise.

Lyka
2021-07-10, 20:16:31
Ich sehe das Problem hier, dass sich der hohe Stromverbrauch einfach nicht lohnt. Wieviele Leute kaufen sich hochgepowerte Grafikkarten für andere Dinge außer Benchmarks? 4k-Gaming existiert (noch) nicht.

iamthebear
2021-07-10, 20:39:27
1.) Die Einordnung nur basierend auf dem Namen halte ich für nicht sinnvoll.

Pascal:
Die 1080 Ti war eine 700 Euro Karte und sollte mit der 2080 verglichen werden
Die 1080 war eine 500 Euro Karte so wie die 2070
Die 1070 war eine 400 Euro Karte (2060 Niveau)

Ampere:
Die 3080 gab es bisher nie um 700 Euro und wird jetzt wohl durch die 3080 Ti ersetzt werden.

2.) Wem der Verbrauch zu viel ist, der kann das Powerlimit ja einfach etwas runter stellen.

Eine 380 läuft mit nur 4% Performanceverlust wunderbar mit 50W weniger:
https://www.computerbase.de/2020-09/geforce-rtx-3080-test/6/#abschnitt_rtx_3080_vs_rtx_2080_ti_bei_270_watt

Bei der 3070 Ti sind ganze 70W weniger drin für nur 5% weniger:
https://www.computerbase.de/2021-06/nvidia-geforce-rtx-3070-ti-review-test/4/#abschnitt_rtx_3070_vs_rtx_3070_ti_bei_220_watt

4k-Gaming existiert (noch) nicht.

Wieso sollte 4K Gaming nicht existieren? Also ich spiele derzeit mit einem 65" Fernseher als Monitor und da ist Auflösung alles. Dafür opfere. Da schraube ich auch gerne ein paar Effekte zurück, damit ich die Auflösung so hoch wie möglich stellen kann.

Rechner-Tester
2021-07-10, 21:21:10
Ich kann mit den Antwortmöglichkeiten nichts anfangen. Mit Wattbereichen für die Auswahl wüsste ich was ich auswähle.
Wobei ich finde, dass die Leerlaufleistungsaufnahme häufig zu kurz kommt. Die meistens Rechner sind die überwiegende Zeit im Idle, da machen 5 oder 30 Watt einen deutlichen Unterschied. Das gilt auch für die CPUs

OpenVMSwartoll
2021-07-10, 21:32:21
Das ist leider ein hauefiges Missverständnis. Die Energiewende ist geschafft, wenn alle Energie nachhaltig gewonnen/erzeugt wird. Selbsteinschränkungen helfen nur den Leuten, die auf Kosten der Allgemeinheit das Problem länger ignorieren (dürfen).

Zudem ist die Verhältnismäßigkeit zu beachten: Mal überschlagen, wie weit der Jahresverbrauch eines Gaming-PCs mit einem Auto fahren kann.

Die Diskussion wäre interessant, ist aber OT. Aber wenn weniger Energie verbraucht wird (wir haben nicht grundlos mittlerweile statt Glühbirnen LED-Leuchtmittel), muss auch weniger erzeugt werden.

Daß dies durch Elektroautos konterkariert wird: Was stört es die Glaubensgemeinschaft?

Aber BTT: Ne Klasse kleiner reicht auch für meine Zwecke.

Ronald79
2021-07-10, 21:39:37
Ich habe bewusst eine RX 6800 gekauft obwohl die RX 6800 XT nicht viel mehr gekostet hat.

Ich bin mit der Performance Pro Watt sehr zufrieden. Ich möchte im Sommer auch spielen ohne mein Raum noch mehr aufzuheizen. Für mich ist bei 250W Schluss lieber weniger.

Semmel
2021-07-10, 22:38:47
Ich sehe das Problem hier, dass sich der hohe Stromverbrauch einfach nicht lohnt. Wieviele Leute kaufen sich hochgepowerte Grafikkarten für andere Dinge außer Benchmarks? 4k-Gaming existiert (noch) nicht.

Ich habe seit dem Frühjahr 2019 einen 4K-Bildschirm und nutze es, wo es geht. Meine damalige VII kam da schon öfter an ihre Grenzen und das (dank Mininghype effektiv kostenlose) Upgrade zur 6900 XT hat einiges gebracht.

Zum Topic:
Die Hersteller-TDP ist mir ziemlich egal, solange man selber nachjustieren kann.
Meine 6900 XT läuft mit Undervolting auf 200 Watt.

Mortalvision
2021-07-10, 22:59:56
Mir ist der Verbrauch meiner GPU völlig egal. Früher war ich aufm Effizienztrip bei PCs. Heute spare ich in einer Eoche durch kraftstoffsparendes Verhalten auf der Autobahn mein ganzes PC Strombudget im Jahr ein. Wäre wohl anders, tät ich minern.

BlacKi
2021-07-10, 23:56:40
Ich schaue bewußt eine Klasse tiefer, ausgehend von meiner uralten Radeon HD 7850. Die hat 120W TDP und galt seinerzeit als gute Mittelklasse.
Heute würde ich z.B. eine RX 5500 XT nehmen, die nur als Mainstream gilt. Oder eine 6600, wobei da die Specs noch nicht genau bekannt sind.

In absoluten Zahlen verbrät die RX 5500 XT dasselbe wie die HD 7850, aber ich würde zumindest die Eskalation beim Verbrauch nicht mitmachen.die 7850 hat mehr als 200w genommen. die amd karten wurden damals auch wegen ihres hohen verbrauchs kritisiert. eine 680 war schon oberklasse 2012 mit 180w.auch wenn das nicht der große kepler war.

BTB
2021-07-11, 00:04:09
Ich sehe das Problem hier, dass sich der hohe Stromverbrauch einfach nicht lohnt. Wieviele Leute kaufen sich hochgepowerte Grafikkarten für andere Dinge außer Benchmarks? 4k-Gaming existiert (noch) nicht.

Sehe ich auch anders. Seit den RTX Karten speziell mit DLSS geht 4k sehr gut. Spiele alles auf 86"

Stromverbrauch der Karte? Wayne? Was macht das aus wenn ich nicht 24/7 mine?

Karte darf nicht zu laut werden mit dem Kühlsystem, mehr interessiert beim zocken nicht.

wandermann
2021-07-11, 00:46:20
Dieses Thema wird vermutlich gerade in Deutschland heiß gekocht, weil hier der Strom leider so teuer gemacht wurde. Wenn der Strom billiger wäre wie fast überall auf der Welt sähe man 300W-Verbräuche auch etwas entspannter.

Deshalb glaube ich auch nicht, dass der Verbrauch der Produkte nur für den deutschen Markt sinken wird, sondern es wird so weiter gehen.

ChaosTM
2021-07-11, 00:58:37
Im Winter ist die Graka Teil des Heizsystems und im Sommer kann man undervolten. Strom ist hier mit 15-19 cent (je nach Tageszeit) auch deutlich billiger.
Und bald kostet er fast gar nichts mehr, weil wir sowohl in Wien (über die Hausverwaltung) als auch am Land bei den Eltern eine PV Anlage haben/kriegen.

@Lyka.: ich spiel seit bald 7 Jahren auf einem 4k Monitor, aber sehr oft nur in 1800p. Und das auch erst seit der 1080ti. Das ist das schöne an einem High-DPI Ausgabegerät. Die Auflösung ist fast frei wählbar bei akzeptablem Qualitätsverlust. 120+ hz kann er leider nicht.

Platos
2021-07-11, 03:11:22
Das ist leider ein hauefiges Missverständnis. Die Energiewende ist geschafft, wenn alle Energie nachhaltig gewonnen/erzeugt wird. Selbsteinschränkungen helfen nur den Leuten, die auf Kosten der Allgemeinheit das Problem länger ignorieren (dürfen).

Zudem ist die Verhältnismäßigkeit zu beachten: Mal überschlagen, wie weit der Jahresverbrauch eines Gaming-PCs mit einem Auto fahren kann.

Gaaaaaanz falsch. Gestern dachten die Leute noch, man könnte die Ozeane nicht leer fischen und heute denken (die) Leute, erneuerbare Energien kann man endlos bauen.

1. Gibt es eine begrenzte Fläche/Volumen auf der Erde (auch der Mond ist begrenzt).
2. Wenn man die Natur nicht noch weiter versiegeln will, ist sie noch viel schneller begrenzt.

Wohl eher ist deine Aussage eine Wiederspiegelung von Greenwashing. Ist die Enerige erneuerbar, kann man so viel verschwenden, wie man will...

Leonidas
2021-07-11, 06:10:00
Es sollte auch eine AMD-Tabelle geben.

Ist bei AMD schwieriger, weil es da meist kein so durchgehendes Portfolio gibt und es auch stärkere Umbrüche gibt. Ältere AMD-Karten konnten teilweise früher auch schon 300W erreichen.




1.) Die Einordnung nur basierend auf dem Namen halte ich für nicht sinnvoll.

Alle diese Einordnungen sind suboptimal. Jene sind aber auch nur als Beispiele gebracht, die Umfrage hängt nicht direkt daran.





die 7850 hat mehr als 200w genommen.


Könntest Du die 7950 gemeint haben? Die hatte TDP 200W, verbrauchte real aber 147W.

Die 7850 stand bei 130W TDP und verbrauchte 96W.

Quelle:
https://www.3dcenter.org/artikel/stromverbrauchs-ueberblick-fuer-directx-11/12-grafikkarten/stromverbrauchs-ueberblick-fuer-d#hd7000

ChaosTM
2021-07-11, 07:29:25
Meine 290X hat im UBER Mode bereits 2013 270 Watt aus dem Brett gesaugt. Ohne Aftermarket Kühler Accelero III war das Ding nicht ohne Gehörschäden zu verwenden.

Sardaukar.nsn
2021-07-11, 09:57:12
Mir ist der Verbrauch meiner GPU völlig egal. Früher war ich aufm Effizienztrip bei PCs. Heute spare ich in einer Woche durch kraftstoffsparendes Verhalten auf der Autobahn mein ganzes PC Strombudget im Jahr ein. Wäre wohl anders, tät ich minern.

Ja was kostet der Gaming Stromverbrauch eigentlich?

Der Einfachheit halber nehme ich mal für meinen PC (5800x + RTX 3080) einen Gaming Verbrauch von 500 Watt an. Ist aber meist deutlich weniger. Eine Kilowatt Stunde kostet hier gut 25 Cent. Macht etwa 13 Cent für eine Stunde Vollgas spielen.

Möchte ich hier im Haushalt Geld oder Energie sparen möchte, gibt es ganz andere Hebel. Daher volle Zustimmung @Mortalvision

BTB
2021-07-11, 10:41:21
Ja was kostet der Gaming Stromverbrauch eigentlich?
Der Einfachheit halber nehme ich mal für meinen PC (5800x + RTX 3080) einen Gaming Verbrauch von 500 Watt an. Ist aber meist deutlich weniger. Eine Kilowatt Stunde kostet hier gut 25 Cent. Macht etwa 13 Cent für eine Stunde Vollgas spielen.

Ich glaub ich messe das mal die Tage. 10700k mit 3060ti - TV lass ich mal aussen vor. Wäre ja nicht unwahrscheinlich dass man alternativ Netflix guckt. Also das reine Gaming als Extra-Posten.

CD-LABS
2021-07-11, 11:15:25
Hmm, leider gibt es hier keine für mich passende Antwortoption.
Ich sehe die absoluten Leistungsaufnahmen nicht als Problem an, der Effizienzfortschritt ist einfach zu gering. Das ist verwand mit "Selbst ein deutlich höheres Verbrauchs-Niveau wäre gangbar, sofern die Performance passt.", aber eben bloß verwand...


Was meine ich selber?
Geht mal in Gedanken zurück zu Maxwell, also zur letzten Generation mit etwa einer Effizienzverdoppelung. Und dann stellt euch vor, damals wären Chiplet-GPUs möglich geworden und aus einer 980ti@250W wäre dann eine 990ti@500W gefolgt, bei der zwei modifizierte GM200 glued together worden wären und (ohne AFR, wirkliches zusammengluen!) doppelte Performance erreicht hätten.
So eine Form der Leistungsaufnahmeexplosion halte ich bereits für recht unproblematisch. Noch besser wäre natürlich, wenn die Karte dann beispielsweise auf 400W gedeckelt würde und entsprechend sogar effizienter als die SingleChipletKarte wäre.

Okay, raus aus dem Gedankenspiel, was konnte hierdurch verstanden werden?

Hohe Peak-Leistungsaufnahme und Ineffizienz sind nicht das gleiche Problem.
Es könnte gut sein, dass bei ChipletGPUs die Peak-Leistungsaufnahmen explodieren würden; zumindest sofern AMD oder Nvidia das Gefühl bekommt, dass Performance durch die Decke zu gehen hätte...
Dass klassisches SLI untergegangen ist, ist auf jeden Fall aus Effizienzgründen zu befürworten.
Das alles ist nicht, was bei Ampere geschehen ist.

Ampere nutzt einfach nur eine hochgeprügelte Grundarchitektur mit marginalem Effizienzgewinn gegenüber der bereits in Punkto Effizienzfortschritt schwachen Grundarchitektur. (zumindest im Rasterizereinsatz ist der Effizienzfortschritt gering; beim Raytracing ist der Fortschritt sogar ordentlich)
Insbesondere wurden die Ampere-Karten ja auch mit problematischen Speicher ausgestattet und die Chips in eher billiger Fertigung produziert...


Um mal langsam zum Ende zu kommen: Ich hätte nichts dagegen, wenn Ampere in einer Neuauflage mit HBM2E und in einem EUV-Verfahren bei den aktuellen Leistungsaufnahmen bleiben würde, sofern die Effizienzscharte ausgewetzt wird. Ich habe auch nichts dagegen, wenn künftige Generationen auf Chipletbasis sich in höheren Wattklassen befinden werden. Ihre Grundarchitekturen sollten nur ordentlich Effizienz liefern, für die Kühlung wäre es vielleicht sinnvoll, sie noch etwas zu drosseln, die Kühler sollten natürlich besser werden und allen voran wäre es natürlich sehr gut, wenn weniger PowerTarget-Anpassungen notwendig wären. (weil Spiele nicht mehr in Hauptmenus unnötig Performance einfordern würden...)

Ach, und natürlich ist es super wichtig, dass aus den berechneten Informationen flächendeckend mehr gemacht wird, als es aktuell der Fall ist. DLSS-ähnliche Technologie sollte überall genutzt werden.

Platos
2021-07-11, 11:19:33
Geht hald nicht immer nur ums Geld. Naja, manchen anscheinend schon...

Abgesehen davon, dass das immer noch 500 Euro in 10 Jahren sind.

Aber klar, solange man noch wo anders mehr Strom/Energie Sparen könnte, hat man ja ne Ausrede nix zu tun...

BlacKi
2021-07-11, 11:26:33
Könntest Du die 7950 gemeint haben? Die hatte TDP 200W, verbrauchte real aber 147W.

Die 7850 stand bei 130W TDP und verbrauchte 96W.

ja, da kam die späte uhrzeit und ein verbrauchstest mit systemgesammtverbrauch zusammen.

Marodeur
2021-07-11, 11:42:26
Ich nutze aktiv die Möglichkeiten die sich mit Undervolting anbieten was sich zumindest bei der 3070 in deutlich niedrigerem Stromverbrauch bemerkbar macht. Finde aber auch den aktuellen Zustand als maximum tragbar. Es soll vor allem leise sein ohne das ich alles unter Wasser setzen muss, auch hier hilft Undervolting deutlich.

Schön wäre es wenn Hersteller entsprechende Optionen einbauen würden und mir die Wahl lassen ob 90% der Performance bei deutlich sinkendem Stromverbrauch (und niedrigerer Geräuschkulisse) ausreicht mit einfach zu erreichendem Softwareswitch und ohne zu überlegen was stell ich jetzt ein. Und nur bei Bedarf dann eben 100% (Raytracing, 4k, etc.). Wer nahezu 100% bei gesenktem Verbrauch will muss dann halt noch Hand anlegen.

CD-LABS
2021-07-11, 11:48:39
Gaaaaaanz falsch. Gestern dachten die Leute noch, man könnte die Ozeane nicht leer fischen und heute denken (die) Leute, erneuerbare Energien kann man endlos bauen.

1. Gibt es eine begrenzte Fläche/Volumen auf der Erde (auch der Mond ist begrenzt).
2. Wenn man die Natur nicht noch weiter versiegeln will, ist sie noch viel schneller begrenzt.

Wohl eher ist deine Aussage eine Wiederspiegelung von Greenwashing. Ist die Enerige erneuerbar, kann man so viel verschwenden, wie man will...
Tatsächlich ist das ganze deutlich komplexer; insbesondere wird oftmals umweltfeindlich verzichtet.
Gerade Lowendgrakas oder Lowendsmartphones zu kaufen wäre dafür ein Beispiel; diese Geräte können im Gesamtmarkt (also Erstbenutzer und weitere Gebrauchtkäufer) kürzer im Einsatz bleiben. Das liegt daran, dass sie insgesamt die schlechteren Produkte und nicht bloß andere Produkte sind --- eine HighEndGraka auf das Niveau einer LowEndGraka gebremst erledigt das, was sie kann, effizienter. Allerdings sabotiert zum Beispiel ein Apple solche Regeln im Smartphonemarkt, indem sie zu knausrig beim Speicher sind und nicht lang genug Softwareupdates liefern --- auch wenn sie für letzteres oftmals gelobt werden, bewegt sich ihr sie nur auf niedrigem Niveau gut, zehn Jahre plus sollten mittlerweile mindestens drinne sein. Wie gesagt, auf niedrigem Niveau sind sie gut, aber das Niveau muss eben insgesamt steigen.

Darüber hinaus ist eine gewisse Form von Verschwendung tatsächlich sogar Teil der Energiewende. Dieses Video erläutert das Konzept ganz gut: https://www.youtube.com/watch?v=PM2RxWtF4Ds

Weil die Energiewende dafür sorgen wird, dass es zeitweise quasi kostenlose Energie geben wird, lohnen sich auch Projekte, die ansonsten niemals rentabel (verschwenderisch) wären. (zum Beispiel vielleicht die Bindung von Treibhausgasen oder die Synthese von Wasserstoff)

iamthebear
2021-07-11, 11:58:52
Rechnen wir das einmal grob durch:
25 Cent/KWh
5 Jahre Nutzungszeit der GPU

100 Watt mehr oder weniger machen pro Stunde Gaming am Tag ca. 45 Euro aus.

Solange also nicht jeden Tag 10 Stunden zockt halten sich die Unterschiede also ziemlich im Rahmen.

Eher wichtiger ist im Sommer (ohne Klimaanlage) die Erhitzung des Raums bzw. die allgemeine Belastung der Hardware durch höhere Temperaturen. Den VRAM dauerhaft auf über 100 Grad zu grillen sorgt vermutlich zu höheren Ausfallsraten. Durch die Garantiezeit kommt man meistens noch gut durch aber ich habe keine Lust, dass mir die GPU in 4 Jahren ausgerechnet mitten imnächsten Miningboom verreckt wenn es nichts sinnvolles zu kaufen gibt. Einmal abgesehen davon, dass es zumindest ohne iGPU immer etwas mühsam ist die GPU als tatsächlichen Auslöser für Systemabstürze zu identifizieren. Also aktuell habeich keine Reservekarte mehr herumliegen.

NeMeth
2021-07-11, 11:58:59
Ich habe bewusst eine RX 6800 gekauft obwohl die RX 6800 XT nicht viel mehr gekostet hat.

Ich bin mit der Performance Pro Watt sehr zufrieden. Ich möchte im Sommer auch spielen ohne mein Raum noch mehr aufzuheizen. Für mich ist bei 250W Schluss lieber weniger.

Same here. 300W sind für mich eine Schallmauer, da ist Schluss. Die 6800 braucht kaum mehr als meine Vorherige 5700XT, damit konnte ich mir das Upgrade gutreden.

Lehdro
2021-07-11, 12:00:21
Schön wäre es wenn Hersteller entsprechende Optionen einbauen würden und mir die Wahl lassen ob 90% der Performance bei deutlich sinkendem Stromverbrauch (und niedrigerer Geräuschkulisse) ausreicht mit einfach zu erreichendem Softwareswitch und ohne zu überlegen was stell ich jetzt ein. Und nur bei Bedarf dann eben 100% (Raytracing, 4k, etc.). Wer nahezu 100% bei gesenktem Verbrauch will muss dann halt noch Hand anlegen.
1. BIOS Switch mit Silence/Performance BIOS
2. AMD hat einen UV Switch im Treiber

Ansonsten, wie du schon sagst, selber UV betreiben mit Curve Editor oder über Wattman.

Slashman
2021-07-11, 12:06:58
Die Grafikkarten von Heute schlucken viel zu viel Strom. Früher hatte eine 7950GX2 Dual GPU Karte 110 Watt... Bis 200 Watt total Board Power habe ich es noch akzeptiert, aber jetzt schlucken schon 250-300mm2 GPUs 230 Watt und mehr. 350 Watt ist zu viel für ein Chip.

Bis 200 Watt TDP für Enthusiasten!/High End (350-400mm² DIE Fläche)
Bis 150 Watt TDP für die Performance Klasse (250-350mm²)
Bis 100 Watt TDP für die Mittel klasse (150-250mm²)
Bis 50 Watt dann Low End Klasse

Warum muss das alles so ausarten. Ich betreibe meine RX 5700XT UV mit 90 Watt TDP (50% des original Zustand). Es ist genug Leistung damit vorhanden... Statt 1,9 GHz (180 Watt TDP) sind es 1,45 GHz (90 Watt). Ich spiele in 4K und das mit ansprechender Grafik und guten Details... Muss es Ultra Details sein... Muss ein Spiel so schlecht optimiert sein das eine 350 Watt Karte gerade so 60FPS schafft in 4K...

Das ist ein Rattenschwanz... Die Entwickler sehen oh ich muss nicht optimieren, weil PC Spieler eh aufrüsten. Die PC Hersteller machen immer weniger Fortschritte in der Architektur Effizienz, weil der Konsument schon bereit ist 350 Watt GPUs zu kaufen.

Nur so als Tipp:
Meine RX 5700XT liefert mit 90 Watt TDP fast 1,5 GHz.
Mit den 180 Watt sind es nur maximal 1,95 GHz.. Quasi für 25% mehr Takt einfach 100% mehr Strom.

Seit ihr echt bereit heiße, laute, stromhungrige GPUs mit kurzer Lebensdauer zu wollen für nur knapp 20% Mehr Leistung... Denkt keiner an die Umwelt, das Stromnetz und die Kosten? Wisst ihr das für Silizium spezieller Sand benötigt wird. Meeres sand um genau zu sein. Es wurde mal gezeigt wie viel Korallen dafür drauf gehen damit ihr jedes Jahr ein neues Handy und PC Grafikkarte kaufen könnt. Deshalb kaufe ich mir frühestens alle 4 Jahre eine neue Grafikkarte... Eher später. Wie gesagt muss keine Grafikkarte 800mm² groß sein und 350-450 Watt schlucken...

Wie beim Auto, wo der Staat den Herstellern vorgibt was für ein Verbrauch und Ausstoß der Wagen haben darf, so befürworte ich auch das GPU Herstellern Grenzen gesetzt werden. Was kommt dann in 5 Jahren eine 250-300mm2 GPU ala RTX 5070 mit 500 Watt TDP...

CD-LABS
2021-07-11, 12:09:01
Ich nutze aktiv die Möglichkeiten die sich mit Undervolting anbieten was sich zumindest bei der 3070 in deutlich niedrigerem Stromverbrauch bemerkbar macht. Finde aber auch den aktuellen Zustand als maximum tragbar. Es soll vor allem leise sein ohne das ich alles unter Wasser setzen muss, auch hier hilft Undervolting deutlich.

Schön wäre es wenn Hersteller entsprechende Optionen einbauen würden und mir die Wahl lassen ob 90% der Performance bei deutlich sinkendem Stromverbrauch (und niedrigerer Geräuschkulisse) ausreicht mit einfach zu erreichendem Softwareswitch und ohne zu überlegen was stell ich jetzt ein. Und nur bei Bedarf dann eben 100% (Raytracing, 4k, etc.). Wer nahezu 100% bei gesenktem Verbrauch will muss dann halt noch Hand anlegen.
Persönlich nutze ich Shortcuts im Afterburner, STRG+Shift+1=40%Powertarget, STRG+Shift+2=55%Powertarget, ...
...aber da ginge eben viel mehr, wenn die Hersteller und auch die Spieledevs sich richtig reinknien würden.
Für ersteres bräuchte es wahrscheinlich einmal ein dominantes AMD, für letzteres insbesondere einen gesunderen Gamingnotebookmarkt.
Eigentlich gilt ja die Diverse, dass sobald ein Gerät mit einem Akku versehen wird, Effizienzfortschritte in vorher stagnierenden Bereichen quasi zum Selbstläufer werden. Siehe Akkustaubsauger, Akkuautos (E-Autos), Drahtloskopfhörer, ...

Slashman
2021-07-11, 12:56:49
Übrigens fand ich schon die GeForce 8800 Ultra mit 480mm2 und 180 Watt TDP arg hoch, wenn der Vorgänger die GeForce 7800 GTX 512 mit 110 Watt TDP auskam bzw. die 7950 GX2 mit 110 Watt trotz Dual GPU...

Seit dem Punkt geht es nur Aufwärts mit dem Verbrauch...

Platos
2021-07-11, 13:04:06
Tatsächlich ist das ganze deutlich komplexer; insbesondere wird oftmals umweltfeindlich verzichtet.
Gerade Lowendgrakas oder Lowendsmartphones zu kaufen wäre dafür ein Beispiel; diese Geräte können im Gesamtmarkt (also Erstbenutzer und weitere Gebrauchtkäufer) kürzer im Einsatz bleiben. Das liegt daran, dass sie insgesamt die schlechteren Produkte und nicht bloß andere Produkte sind --- eine HighEndGraka auf das Niveau einer LowEndGraka gebremst erledigt das, was sie kann, effizienter. Allerdings sabotiert zum Beispiel ein Apple solche Regeln im Smartphonemarkt, indem sie zu knausrig beim Speicher sind und nicht lang genug Softwareupdates liefern --- auch wenn sie für letzteres oftmals gelobt werden, bewegt sich ihr sie nur auf niedrigem Niveau gut, zehn Jahre plus sollten mittlerweile mindestens drinne sein. Wie gesagt, auf niedrigem Niveau sind sie gut, aber das Niveau muss eben insgesamt steigen.

So ein Blödsinn, wirklich:confused:. Mein 5 Jahre altes Smartphone mit nem SD 625 kann man (hardwaretechnisch) immer noch 1A gebrauchen (würde ich auch, hätte ich es nicht verloren). Und man könnte es auch nochmals 5 weitere Jahre brauchen. Das war vlt. vor 2016 (SD 625) so, heute aber nicht mehr. Abgesehen davon hast du dir mit Handys grad das schlechteste Beispiel ausgesucht. Mit ihren schnellen und langsamen Kernen sind sie das Musterbeispiel von Effizienz von Low-End bis High-End.

Abgesehen davon geht es ja nicht um High-End oder Low-End. Und du suchst dir natürlich gleich Low-End aus, also bewusst das unterste... Es geht um den (mittleriweile) hohen Stromverbrauch (absolut) und auch die extreme Ineffizienz. Welches Gerät das nun hat, ist mir eig. egal. PCs sind was Effizienz anbelangt ein Witz im Vergleich zu Smartphones. Stromverbrauch im Idle/Niedriglast die Hölle und die Grafikkarten werden immer ineffizienter und verbrauchen immer mehr Strom - darum gehts!

Ach ja...Highend-PCs mit extrem hohem Stromverbrauch kann man vlt. Stromsparender betreiben, macht aber niemand. Auch so eine Schönrederei.;) Solange das nicht die default-Einstellung ist, ist es zu kritisieren. (Nochmals: Unter anderem genau darum gehts).

Darüber hinaus ist eine gewisse Form von Verschwendung tatsächlich sogar Teil der Energiewende. Dieses Video erläutert das Konzept ganz gut: https://www.youtube.com/watch?v=PM2RxWtF4Ds

Weil die Energiewende dafür sorgen wird, dass es zeitweise quasi kostenlose Energie geben wird, lohnen sich auch Projekte, die ansonsten niemals rentabel (verschwenderisch) wären. (zum Beispiel vielleicht die Bindung von Treibhausgasen oder die Synthese von Wasserstoff)

Du hast es vlt. nicht verstanden (oder aber du siehst das vlt. leider wirklich nur aus wirtschaftlicher Sicht). Die Energiewende muss nicht aus Kostengründen her, sondern aus Umweltgründen (Genauer: Klimagründen). Von daher ist eine Verschwendung nie Lohnenswert* (in dem Bereich, in dem es hier geht - PC Hardware). Denn es geht hier nicht um Geld. Eine kurzfristige*2 Strompreissenkung als Ausrede zur Verschwendung zu nehmen ist hald auch wieder mal nichts anderes als.... eine faule Ausrede. Aber klar, wenn man keine Argumente hat, dann lenkt man vom Thema ab und kommt von total ineffizienten Grafikkarten zum Binden von Treibhausgasen:rolleyes: Also wirklich, echt jetzt ?


*: Ums nochmals zu Erwähnen: Es geht hier um PC Hardware bzw. man könnte es auch auf Konsumgüter ausweiten und nicht um Maschinen, die C02 bzw. C aus der Atmosphäre binden.

Edit: *2 Nichts anderes als kurzfristig wäre es, wenn man nun anfängt verschwenderisch zu wirtschaften, anstatt genau das Gegenteil anzustreben! Abgesehen davon gehts in dem Video um den Stromverbrauch und nicht um den globalen Energieverbrauch und schon gar nicht um den globalen Energieverbrauch, wenn die ganze Welt einen Standart wie z.B wir hier in Europa haben.

Mr.Smith
2021-07-11, 13:10:20
Der Samsung 8nm Prozess ist einfach nicht optimal, leider.
Ich hoffe es gibt bald wieder mehr schnelle Karten um die 200W..

Nightspider
2021-07-11, 13:38:24
Wenn Navi31 als Chiplet-Vollausbau 2,7 mal so schnell werden sollte wie die 6900XT wäre es mir auche gal wenn die Karte 500-550W saufen würde.

Ich hatte mal das GTX280 SLI Gespann von Tombman übernommen und das hat mit OC auch schon 500-550W verballert. :biggrin:

Und dazu hatte ich mal eine Zeit lang aus Spaß eine alte 8800gt als PhysX-Beschleuniger. Mein Gesamt-PC lag damit eher bei 900-1000W.

Solange der Idle-Verbrauch passt ist mir das schnurz egal wie viel Saft die unter Last ziehen.

Die sollen lieber mal den Idle-Stromverbrauch bei 3-Monitor-Setups in den Griff bekommen.

CD-LABS
2021-07-11, 13:55:46
So ein Blödsinn, wirklich:confused:. (...)
Ja, wirklich. Davon ist nichts Blödsinn.
Mein Vorschlag: Lies das Posting nochmal, schau das Video (nochmal?), mit einem Gedanken im Hinterkopf: Das alles stammt einem klar umweltfreundlichen User, nutzt ein FP2, betreibt die 2080ti bei in der Regel 40% Powertarget, fährt kein Auto, kritisiert den StatusQuo von Industrie, misst elektronische Geräte im Haus durch, kauft diverse Alltagsgegenstände nur ein einziges Mal, ...
...denn ich zumindest vermute angesichts des restlichen Postings, dass du ein anderes Bild im Hinterkopf hattest.

Es ist wichtig, dass du die Punkte verstehst. Schau auf alles erst einmal freundlich --- Schwachstellen wirst du in derart kurzen Postings immer finden oder reinlesen können. Es ist in dem Format auch Aufgabe der Lesenden dafür zu sorgen, dass keine Missverständnisse entstehen; und das ist eine Aufgabe aus eigenem Interesse.


Es ist wichtig, dass du die Auswirkungen von LowEnd-Erstkäufen auf Warenkreisläufe verstehst, weshalb eine Highendisierung von (insbesondere Hardware-) märkten aus umweltfreundlicher Perspektive Pflicht ist.
Es ist wichtig, dass du verstehst, dass das Konzept der SuperPower dafür sorgen wird, dass zu unterschiedlichen Zeiten unterschiedliche starke Anreize für Stromverwendung geschaffen werden sollten, auch im Consumerbereich.
Es ist wichtig, dass du verstehst, dass mein Posting keinerlei Ablenkungen enthalten haben, sondern alles voll und ganz die wichtigen Punkte betroffen hat.

von Richthofen
2021-07-11, 14:04:33
Ist bei AMD schwieriger, weil es da meist kein so durchgehendes Portfolio gibt und es auch stärkere Umbrüche gibt. Ältere AMD-Karten konnten teilweise früher auch schon 300W erreichen.
Um zu zeigen das moderne High-End Grafikkarten einen stetig wachsenden Energieverbrauch aufweisen taugt nV im Vergleichszeitraum mehr, dass versteht man.
Es gehört mMn aber auch dazu zu sagen, dass es beide Hersteller betrachtet, gar nicht so wild ausschaut. Natürlich sind 306W Verbrauch einer 6900XT ein neuer Spitzenwert aber eben nur knapp. 390X, Fury-X bzw. Vega64 haben doch auch alle mehr oder weniger 300W weggesoffen - erstere gar schon vor Pascal.
Nichts wäre leichter gewesen als kurz nach Release der großen nV-Bollermänner 3090 (350W) und 3080 (320W) samt dessen Riesenverbräuchen dem Spitzenprodukt 6900 XT eine dickere TDP zur Seite zu stellen. Stattdessen wird es über das Binning gelöst und die Leistungsaufnahme - übrigens genau wie das nächstkleinere Modell 6800 XT - auf 300W gedeckelt.

CD-LABS
2021-07-11, 14:22:48
Übrigens fand ich schon die GeForce 8800 Ultra mit 480mm2 und 180 Watt TDP arg hoch, wenn der Vorgänger die GeForce 7800 GTX 512 mit 110 Watt TDP auskam bzw. die 7950 GX2 mit 110 Watt trotz Dual GPU...Wenn Leute verklärt auf die Performancesprünge aus den Zeiten der frühen 3D-Beschleuniger zurückschauen, dann ignorieren sie übrigens auch häufig, dass gleichzeitig die Leistungsaufnahmen aus dem zweistelligen in den dreistelligen Wattbereich gestiegen sind.

Seit dem Punkt geht es nur Aufwärts mit dem Verbrauch...
Nicht wirklich, Kepler, Maxwell und Pascal waren alle sehr ähnlich ausgelegt und Fermi war schluckender.

Ein Thema, das ich in diesem Thread bislang innerhalb der Betrachtung von Graka-Leistungsaufnahmen vermisse, sind Netzteile: Dort muss es auch mal langsam weitergehen und dafür wäre endlich mal das Auftauchen von neuen Effizienzklassen von Nöten, damit Titanium irgendwann auch mal Mainstream werden kann.

Cybenetics hat ja vorgelegt und Diamond spezifiziert --- 80Plus dreht leider immer noch Daumen und bislang hat kein Hersteller angekündigt, ein Netzteil zu entwickeln, dass die Cybenetics-Effizienzklasse auch erreicht. Aber es braucht ohnehin mehr als eine Klasse über Titanium, wenn Titanium breit etabliert werden soll.

Warum sind Netzteile auch wichtig für die Betrachtung innerhalb von Graka-Leistungsaufnahmen? Na, umso mehr Grakas fressen, umso wichtiger wird hohe Effizienz von Netzteilen unter Last. Wenn Navi31 als Chiplet-Vollausbau 2,7 mal so schnell werden sollte wie die 6900XT wäre es mir auche gal wenn die Karte 500-550W saufen würde.

Ich hatte mal das GTX280 SLI Gespann von Tombman übernommen und das hat mit OC auch schon 500-550W verballert. :biggrin:

Und dazu hatte ich mal eine Zeit lang aus Spaß eine alte 8800gt als PhysX-Beschleuniger. Mein Gesamt-PC lag damit eher bei 900-1000W.

(...)
Sowohl für die historische Betrachtung, als auch für die Zukunftsbetrachtung, die beide in diesem Posting zum Ausdruck kommen, ist das von Bedeutung: Was hast du damals für ein Netzteil genutzt, welches hättest du nutzen können und wie viel mehr hätten die heute besten Netzteile dem gegenüber noch sparen können?

Leonidas
2021-07-11, 14:40:12
Warum muss das alles so ausarten. Ich betreibe meine RX 5700XT UV mit 90 Watt TDP (50% des original Zustand).

Note: Alle Deine Angaben beziehen sich auf die ASIC-Power. Die Karte verbraucht insgesamt ca. 30W mehr als das.

Nightspider
2021-07-11, 14:42:04
Sowohl für die historische Betrachtung, als auch für die Zukunftsbetrachtung, die beide in diesem Posting zum Ausdruck kommen, ist das von Bedeutung: Was hast du damals für ein Netzteil genutzt, welches hättest du nutzen können und wie viel mehr hätten die heute besten Netzteile dem gegenüber noch sparen können?

Hab mir vor 12 Jahren ein Enermax Revolution 87+ mit 1250W geholt und wenn mir das Teil nicht verreckt werde ich es noch lange behalten.

Qualität lohnt sich.

In der Zeit haben Andere wahrscheinlich 3 mal ihr Netzteil gewechselt.

bad_sign
2021-07-11, 15:02:02
Mir fehlt sowas wie, Werksverbrauch ist egal, ich UV/powerlimitiere meine Karte selbst nach Bedarf.
6800XT meist bei ~220W, gut 20W mehr als meine alte 1080TI.
Die 6800XT ist in jeder Disziplin sparsamer und schneller (will man auch hoffen nach 4 Jahren Stillstand :))

Platos
2021-07-11, 15:10:24
Ja, wirklich. Davon ist nichts Blödsinn.
Mein Vorschlag: Lies das Posting nochmal, schau das Video (nochmal?), mit einem Gedanken im Hinterkopf: Das alles stammt einem klar umweltfreundlichen User, nutzt ein FP2, betreibt die 2080ti bei in der Regel 40% Powertarget, fährt kein Auto, kritisiert den StatusQuo von Industrie, misst elektronische Geräte im Haus durch, kauft diverse Alltagsgegenstände nur ein einziges Mal, ...
...denn ich zumindest vermute angesichts des restlichen Postings, dass du ein anderes Bild im Hinterkopf hattest.

Es ist wichtig, dass du die Punkte verstehst. Schau auf alles erst einmal freundlich --- Schwachstellen wirst du in derart kurzen Postings immer finden oder reinlesen können. Es ist in dem Format auch Aufgabe der Lesenden dafür zu sorgen, dass keine Missverständnisse entstehen; und das ist eine Aufgabe aus eigenem Interesse.


Es ist wichtig, dass du die Auswirkungen von LowEnd-Erstkäufen auf Warenkreisläufe verstehst, weshalb eine Highendisierung von (insbesondere Hardware-) märkten aus umweltfreundlicher Perspektive Pflicht ist.
Es ist wichtig, dass du verstehst, dass das Konzept der SuperPower dafür sorgen wird, dass zu unterschiedlichen Zeiten unterschiedliche starke Anreize für Stromverwendung geschaffen werden sollten, auch im Consumerbereich.
Es ist wichtig, dass du verstehst, dass mein Posting keinerlei Ablenkungen enthalten haben, sondern alles voll und ganz die wichtigen Punkte betroffen hat.


Du denkst also wirklich, dass man auch noch Anreize für höhere Stromver(sch-)wendung setzen sollte, "wenns grad billigen Strom gibt"....

Ps. Das Video spricht nirgends davon, dass man künstlich den Stromverbrauch steigern soll im Konsumbereich.

Naja, und hier endet die Diskussion mit dir auch :D Wenn du das wirklich glauben willst, bitte. Da ver(sch-)wende ich meine Zeit nicht länger damit.

Daredevil
2021-07-11, 15:23:11
Die Hersteller-TDP ist mir ziemlich egal, solange man selber nachjustieren kann.
Meine 6900 XT läuft mit Undervolting auf 200 Watt.
+1
Da ich die Karte nie bei Stock Werten betreibe, ist mir auch egal, was sie am Ende schluckt.
Ich stelle ein, was ich brauche, entweder Max Leistung und 400w, moderate Leistung bei 250-300w oder Stromsparen bei 100-200w.

Generell ist mir jedes Watt im Raum zu viel, weswegen der Windows Rechner im Sommer meist aus ist ( nur für Gaming an ) und ich auf meinem ultra Sparsamen M1 MacBook arbeite.
60w Idle sind einfach viel zu viel für den Ryzen und ne 3090, wenn ich alles unter 10w haben kann.
Hätte ich genug Platz, würde ich ( wie früher im Elternhaus ) ein Loch durch die Wand bohren und den Rechner woanders hinstellen.
Jede Hitzequelle im Zimmer ist eine zu viel, ich mags kalt.

Long Story Short:
Der Rechner kann auch meinetwegen 3kW verbrauchen, solange er die Hitze nicht in meinem Zimmer abführt und der Mehrverbrauch gerechtfertigt ist. Solange die Kiste aber in meinem Zimmer steht, so wenig wie möglich, um 4K zu bespielen.
Größter Fehler in meinem Leben war, sich nen 4K Bildschirm zu holen, der mit 120hz laufen kann. :(

Slashman
2021-07-11, 15:48:49
Wenn Leute verklärt auf die Performancesprünge aus den Zeiten der frühen 3D-Beschleuniger zurückschauen, dann ignorieren sie übrigens auch häufig, dass gleichzeitig die Leistungsaufnahmen aus dem zweistelligen in den dreistelligen Wattbereich gestiegen sind.

Nicht wirklich, Kepler, Maxwell und Pascal waren alle sehr ähnlich ausgelegt und Fermi war schluckender.

Ein Thema, das ich in diesem Thread bislang innerhalb der Betrachtung von Graka-Leistungsaufnahmen vermisse, sind Netzteile: Dort muss es auch mal langsam weitergehen und dafür wäre endlich mal das Auftauchen von neuen Effizienzklassen von Nöten, damit Titanium irgendwann auch mal Mainstream werden kann.

Cybenetics hat ja vorgelegt und Diamond spezifiziert --- 80Plus dreht leider immer noch Daumen und bislang hat kein Hersteller angekündigt, ein Netzteil zu entwickeln, dass die Cybenetics-Effizienzklasse auch erreicht. Aber es braucht ohnehin mehr als eine Klasse über Titanium, wenn Titanium breit etabliert werden soll.

Unterm Strich steigt der Stromverbrauch seit Ewigkeiten, aber es muss auch mal Genug sein. Denkt keiner von euch mal weiter als FPS und Benchmarks. Der Strom kommt nicht aus dem nix, ich erwarte ja nicht das eine kommende RTX 5080 nur noch 50 Watt schluckt, aber bei 200 Watt (bestimmt beste Performance/Watt bei 400mm²) ist mal Schluss. Sie (AMD/Nvidia und Intel) müssen langsam aber sicher mal dran denken jetzt wieder einen Rückwärtsgang einzulegen. Wie kann eine Dual GPU der Geforce 7 Serie mit 110 Watt klar kommen (2x 330mm²) und heute muss eine Mittelklasse GPU ala RX 5700 XT 220 Watt schlucken (260mm²). Diese letzten 20% mehr Leistung der GPU wurden mit mehr als dem doppelten an Watt erkauft...

Da lobe ich mir die Autoindustrie, all ihre Fortschritte basieren auf eine höhere Effizienz... Klar mit Limits, aber genial. Mein BMW F10 535D hat 299PS, wiegt 2 Tonnen und schluckt ohne Autobahn 6,5 Liter auf 100km. Der E60 535D (direkter Vorgänger) hat 272/286PS, wiegt 1,6 Tonnen und verbraucht 1 Liter mehr... Er ist leichter, hat weniger Leistung und verbraucht trotzdem mehr. Beides 3 Liter bi Turbo Motoren und beides Diesel.

Ich meine Leute, ist es euch so wichtig die maximale Grafik bei nicht gut optimierten Spielen zu haben um sogar dafür einen Monster Stromverbrauch und eine ordentliche Hitze zu haben.

Note: Alle Deine Angaben beziehen sich auf die ASIC-Power. Die Karte verbraucht insgesamt ca. 30W mehr als das.

Eher 45 Watt mehr bei AMD, aber das ist nicht der Punkt. Der Punkt ist der, das GPUs seit Jahrzehnten an Verbrauch stark zunehmen und es muss Schluss sei. Das ist wichtig für uns in der Welt. Ich hoffe der Staat, bzw. die Staaten klopfen den Herstellern auf die Finger wenn diese weiter Dinge produzieren die mit Absicht nur 2 Jahre halten und total ineffizient Strom verbraten. enBW wird das freuen wenn ihr Strom ohne ende verbraucht. Klar ihr Gewinn, der Verlierer ist mein Sohn^^

Brillus
2021-07-11, 15:52:58
Als Mobil-Käufer bin ich eher an ein hartes Limit gebunden. Wobei bei meinen letzten 2 Laptops der Gesamtverbrauch eher runter ging. Insbesondere beim letzten aber weil ich neuen gebraucht hatte und was ich eigentlich wollte nicht Lieferbar war. Denke mein nächster ist wieder um einiges dicker ausgelegt.

BlacKi
2021-07-11, 16:01:55
wenn man es absolut betrachtet, sinkt sogar der verbrauch. denn die dual gpu karten sind nun seit einiger zeit ausgestorben.^^ da wurden 375w bei der titan z mit nur einem lüfter abgeführt.^^

und es war nicht so als das der hohe stromverbrauch leute vom sli abgehalten hat.

für karten mit hohem stromverbrauch war schon immer ein markt vorhanden.

und mit mcm kommt wohl noch einiges auf uns zu, was den stromverbrauch angeht.

Aroas
2021-07-11, 16:39:03
Was über 200 Watt verbraucht, kommt mir nicht mehr in den Rechner. Allein schon, weil die Kühlung für solche Karten extrem voluminös ausfallen muss, damit das Ganze am Ende noch leise zu betreiben ist.
Das kostet letztlich nicht nur bei der Stromrechnung, sondern eben auch in der Anschaffung.

CD-LABS
2021-07-11, 16:57:44
Du denkst also wirklich, dass man auch noch Anreize für höhere Stromver(sch-)wendung setzen sollte, "wenns grad billigen Strom gibt"....

Ps. Das Video spricht nirgends davon, dass man künstlich den Stromverbrauch steigern soll im Konsumbereich.
Nein, das sage ich nicht. Bitte ließ doch keinen Schrott in das Posting rein. Aber schön, dass du das Video gesehen hsast.

Naja, und hier endet die Diskussion mit dir auch :D Wenn du das wirklich glauben willst, bitte. Da ver(sch-)wende ich meine Zeit nicht länger damit.
Ich weiß auch nicht, ob das einen Sinn hat. Ich meine, vielleicht könnte ich nen ellenlangen Blogeintrag schreiben, in denen alle Abzweigungen abgesteckt sind und ich zwischendurch immer wieder betone, wie sehr mir Effizienzfortschritt am Herz liegt?
(...) Denkt keiner von euch mal weiter als FPS und Benchmarks. (...)
Soll das ein rhetorisches Stilmittel sein? Du hast doch gerade erst mich zitiert, auf den das zutrifft. Und auch jenseits von mir ist der Thread doch voll mit solchen Usern...
...oder passiert dir das gleiche wie Platos?
(...)
Da lobe ich mir die Autoindustrie, all ihre Fortschritte basieren auf eine höhere Effizienz... Klar mit Limits, aber genial. Mein BMW F10 535D hat 299PS, wiegt 2 Tonnen und schluckt ohne Autobahn 6,5 Liter auf 100km. Der E60 535D (direkter Vorgänger) hat 272/286PS, wiegt 1,6 Tonnen und verbraucht 1 Liter mehr... Er ist leichter, hat weniger Leistung und verbraucht trotzdem mehr. Beides 3 Liter bi Turbo Motoren und beides Diesel.
(...)
Die Automobilbranche krebst bei ihren Fortschritten vor sich hin. Man kann froh sein, wenn es nach zwei Jahrzehnten unter vergleichbaren Bedingungen im gleichen Szenario dort überhaupt eine Effizienzverdoppelung gibt.
Dazu kommt noch der Fluch des Festhaltens an Verbrennungsmotoren: Sie sind unvereinbar mit Luxus, siehe hier: https://extreme.pcgameshardware.de/threads/hardwarredaktionen-gebt-intel-und-amd-klare-ansagen.601487/#post-10725370
Die Lektion der ersten Titan, dass die schnellste Karte auch in LowPowerSzenarien überlegen sein sollte, um wirkliches Luxusfeeling zu erzeugen, dass die schnellste Karte auch insgesamt mindestens genauso effizient zu sein hat, ist bei Autos nur mit Verbrennungsmotor kaum zu adaptieren.

Gast
2021-07-11, 17:50:17
"Jetziges Verbrauchs-Niveau ist ertragbar, es darf aber nicht noch mehr werden."

Da muss der Umfragersteller aber noch mal unterteilen in Klasse (mid-end, high-end, enthusiast. Low-end gibt es ja nicht mehr) und AMD oder Nvidia.

Amd Enthusiast (rx 6800xt/rx 6900xt) ist mir mit 300 W noch ertragbar - aber kein Watt höher; undervolte dennoch um 10 %.
Nvidia Enthusiast 320/350 W ist mir nicht mehr ertragbar.

Schnoesel
2021-07-11, 18:11:44
Die 350 Watt meiner Karte sind schon drüber und nur dadurch erträglich, dass ich die Radiatorfläche nochmal um 1/3 vergrößert habe, so wie die Anzahl der Lüfter.

Imo ist das nicht mehr mit Luft leise zu kühlen (wenn es mit den Temps wieder nach oben geht schonmal gar nicht). Aber einige empfinden 2000rpm ja als leise...

Leonidas
2021-07-11, 18:36:50
Da muss der Umfragersteller aber noch mal unterteilen in Klasse (mid-end, high-end, enthusiast. Low-end gibt es ja nicht mehr) und AMD oder Nvidia.

Wäre schön, aber wird in der Praxis zu kleinteilig. Auch die anderen Antwortoptionen könnten das gleiche abfordern.

Gast
2021-07-11, 19:27:50
Klassischer Fall von Selbstbetrug.
Würde man wem aus a oder b 3080 zum Preis der 3060 anbieten, würde zugegriffen und ggf. neues NT gekauft. Rest zur Not via Undervolting.

Summerbreeze
2021-07-12, 09:01:18
Es sollte auch eine AMD-Tabelle geben.
Dito



[X] Jetziges Verbrauchs-Niveau ist schon zu hoch - schaue daher bewusst eine Performance-Klasse tiefer als früher.

Ich habe das angekreuzt, schaue aber grundsätzlich auch, ob sich der Energieverbrauch einer evtl. klassenhöheren Karte mit vergleichsweise einfachen Mitteln, deutlich auf ein angemessenes Niveau reduzieren lässt und trotzdem eine genügend hohe Leistung bereitstellt.
Eine kleinere Karte, welche evtl. am Anschlag läuft ist nicht zwingend die beste Lösung
Mein Maximum liegt eigentlich bei ~200W +-

Bei den aktuellen TDP / TBP Angaben Nvidias >300 - 350W schließe ich sie aber schon von vornherein aus. Allein deswegen, weil ich das Verbrauchsmäßige Auslutschen der Hardware, einzig für die letzten 3-5% nicht unterstütze.
Mit < oder = 300 Watt wären die großen Ampere Karten (Wie z.B bei Igor nachzulesen) kaum langsamer gewesen. Das ist für mich, einfach auch eine psychologisch wichtige Grenze.
Als Nebeneffekt hätte es dann auch (auf breiter Front) keine neuen, eigentlich überdimensionierte und weniger effektive Netzteile geben müssen.
Nicht nur, das durch die Karten an ihrer Leistungsgrenze mehr geschluckt wird, -Nein auch im Desktop / Idle Betrieb erhöht sich dadurch der Verbrauch spürbar.

AMD ist ja nun mit 300W auch nicht SO viel besser, aber immerhin haben sie wohl mal einen Psychologen gefragt oder ganz schlicht, etwas mehr Anstand.

MD_Enigma
2021-07-12, 10:36:07
Ich bin ein großer Freund von: So wenig wie möglich, so viel wie notwendig. Notwendig sind 300W auf keinen Fall und bleibe bei meinen 170-220W. Notfalls warte ich eine Generation, bis das passt.

Mega-Zord
2021-07-12, 10:46:56
Solange der Idle-Verbrauch stimmt, kann die GPU von mir aus 500 Watt ziehen. Aber irgendwo setzt die Kühlung halt Grenzen.

BlacKi
2021-07-12, 12:36:39
*hust* 500w *hust*

https://www.techpowerup.com/gpu-specs/powercolor-r9-295x2.b2907

gabs auch luftgekühlt. https://www.techpowerup.com/201564/powercolor-radeon-r9-295x2-devil13-up-close

mcm wird neue möglichkeiten zwecks kühlung ermöglichen.

Mega-Zord
2021-07-12, 16:54:51
Dann sit doch alles tutti :D

Asaraki
2021-07-12, 17:00:55
Ich bin ein großer Freund von: So wenig wie möglich, so viel wie notwendig. Notwendig sind 300W auf keinen Fall und bleibe bei meinen 170-220W. Notfalls warte ich eine Generation, bis das passt.


Nur zur Einordnung : etwa bei 220 läuft meine 3080 und leistet sehr gute Arbeit. Klar mit UV aber ungefähr dort bewegt sich auch heute der Sweet Spot der größeren Chips

Ist also nicht ganz so schlimm wie man glauben könnte.

hellm
2021-07-12, 20:30:33
Mit den 10xx Geforce Karten konnte man noch relativ sparsame PC's bauen. Mit der 20xx Serie hat sich das schon ein wenig geändert, und mit den 30xx Karten braucht es auch ein Netzteil das nicht einfach abschaltet, weil überfordert.

Trotzdem, in Zeiten, in denen es sog. "Farmen" gibt, in denen Grafikkarten zu Hunderten zusammengerottet zu 97% Unsinn berechnen, tagaus und tagein, sollte man nicht anfangen sich über den den Stromverbrauch der heimischen Daddelkiste Sorgen zu machen.

Die technischen Hintergründe sind schon eher interessant, die Fertigungstechnologien. Heute kaufen wir eigentlich schon stark "übertaktetes" Zeug. Mal sehen wo es mit dem Transistor hinsichtlich der Größe, der Anzahl, der Kühlung und der Leistungsaufnahme noch so hingeht. Ich glaube Chiplets und Kommunikation mit viel Cache stehen an, demnächst wird AMD uns Aldebaran vorstellen.

Fliwatüt
2021-07-13, 05:35:24
Habe hier eine RX580 die um die 200W verbraucht , das finde ich für die gebotene Performance schon ganz schön viel. Beim Kauf habe ich aber nur darauf geachtet das mein Netzteil (500W) nicht überfordert ist.
Ich habe für [X] Jetziges Verbrauchs-Niveau ist schon zu hoch - kaufe aber letztlich trotzdem abgestimmt.
Für mich wäre eine sinnvolle Obergrenze in etwa 250W, könnte aber z.Zt. nicht sagen ob ich mich für eine 6700XT oder 6800 /6800XT entscheiden würde. AMD wegen Adaptive Sync Monitor.


Die sollen lieber mal den Idle-Stromverbrauch bei 3-Monitor-Setups in den Griff bekommen.

Das wäre mir auch sehr wichtig.

Was über 200 Watt verbraucht, kommt mir nicht mehr in den Rechner. Allein schon, weil die Kühlung für solche Karten extrem voluminös ausfallen muss, damit das Ganze am Ende noch leise zu betreiben ist.
Das kostet letztlich nicht nur bei der Stromrechnung, sondern eben auch in der Anschaffung.

Finde ich eine vernünftige Überlegung, Energie- und Ressourcenschonung werden in der Zukunft immer wichtiger und sind z.Zt. viel zu wenig im Focus.

Gast
2021-07-13, 10:52:52
Stufe kleiner? Beim Sprung von wie vielen Generationen? Wenn es nur um 20 auf 30 geht, kann man sich das Upgrade dann sparen. Nur 80Ti zu 80 bringt gegen 20% Mehrverbrauch immerhin 50% mehr Performance. Für 10-20% kauft man doch keine neue Karte. Oder doch?

Bei AMD würde das alles wohl eh 'knittriger' aussehen. Schon bei 2080 zu 3080 vs 2060 zu 3060 ist ersichtlich, dass die Steigerungen sehr ungleichmäßig sind.

Ultron
2021-07-13, 11:57:50
1.) Die Einordnung nur basierend auf dem Namen halte ich für nicht sinnvoll.

Pascal:
Die 1080 Ti war eine 700 Euro Karte und sollte mit der 2080 verglichen werden
Die 1080 war eine 500 Euro Karte so wie die 2070
Die 1070 war eine 400 Euro Karte (2060 Niveau)

Ampere:
Die 3080 gab es bisher nie um 700 Euro und wird jetzt wohl durch die 3080 Ti ersetzt werden.

2.) Wem der Verbrauch zu viel ist, der kann das Powerlimit ja einfach etwas runter stellen.

Eine 380 läuft mit nur 4% Performanceverlust wunderbar mit 50W weniger:
https://www.computerbase.de/2020-09/geforce-rtx-3080-test/6/#abschnitt_rtx_3080_vs_rtx_2080_ti_bei_270_watt

Bei der 3070 Ti sind ganze 70W weniger drin für nur 5% weniger:
https://www.computerbase.de/2021-06/nvidia-geforce-rtx-3070-ti-review-test/4/#abschnitt_rtx_3070_vs_rtx_3070_ti_bei_220_watt



Wieso sollte 4K Gaming nicht existieren? Also ich spiele derzeit mit einem 65" Fernseher als Monitor und da ist Auflösung alles. Dafür opfere. Da schraube ich auch gerne ein paar Effekte zurück, damit ich die Auflösung so hoch wie möglich stellen kann.


Ich habe die 3080 ganz normal für 699€ gekauft. Die Preise sind nur aktuell verzerrt.

Mega-Zord
2021-07-13, 13:10:54
Mit den 10xx Geforce Karten konnte man noch relativ sparsame PC's bauen. Mit der 20xx Serie hat sich das schon ein wenig geändert, und mit den 30xx Karten braucht es auch ein Netzteil das nicht einfach abschaltet, weil überfordert.

Jup, ich sitze hier gerade an meinem Zweitrechner, da der Gaming-PC schon in der neuen Wohnung ist. Das Teil zieht angenehm wenig Strom. Der Xeon 1650v4 (Broadwell-EP) und die 8 RAM-Module bekommen zwar keinen Preis für extremes Umweltbewusstsein, aber die GTX 1080 FE (auf max 0,95 V gedrosselt) schluckt selbst unter Last keine 200 Watt. Im Idele ist die eigentlich immer unter 10 W, was meine 2080 Ti nicht schafft.

hellm
2021-07-13, 20:07:50
^^
Bin von ner 1070Ti auf eine 2080Ti gewechselt, also weiß ich genau wovon du sprichst. Allerdings hat meine Wasserkühlung jetzt wenigstens mal was zu tun.

Und das ist eigentlich für mich auch noch entscheidend beim Rechnerbau, der Kühlaufwand den ich betreiben muss. Die ganzen Watt müssen ja auch wieder aus dem Gehäuse raus. Nur mit Luft ist das jenseits von 300W alles suboptimal.

Gast
2021-07-13, 20:12:21
Eine 560Ti hat 170 W TDP. Eine 480 hat 250 W TDP.
Eine Zeit lang waren die *80 und *70 die top Chips, z.B. 480 war GF100. Ab Kepler verkaufte NVidia den kleinen Chip als *80 und dann war die TDP bei der 680 auf 195W gesunken, was eigentlich eine 660 mit recht viel TDP ist, von daher ist der Vergleich der Marketingnamen nicht sonderlich gut.

Deswegen schlage ich vor 3 Dinge zum besseren Vergleich vor:
1. dass die Chip-Kennungen gleichgestellt werden, nicht die Kartenverkaufsnamen.
2. dass der gleiche Ausbau verglichen wird, z.B. kompletter Chip gegen kompletten Chip, und 1 SM deaktiviert gegen...
3. dass mehr Generationen als Beispiel dienen, schon von der ersten Ferm oder sogar G80i an, weil bis dort hin die Chip-Kennungen sich gleichen.

Sonst beeinflusst der kleine Vergleich schon das Resultat.

Die Preisentwicklung wäre auch nice!

Cyphermaster
2021-07-16, 14:35:51
Trotzdem, in Zeiten, in denen es sog. "Farmen" gibt, in denen Grafikkarten zu Hunderten zusammengerottet zu 97% Unsinn berechnen, tagaus und tagein, sollte man nicht anfangen sich über den den Stromverbrauch der heimischen Daddelkiste Sorgen zu machen.Hunderttausende heimische Daddelkisten machen viele Farmen... :wink:

Ich bin mittlerweile an einem Punkt angekommen, daß ich für mich beschlossen habe, daß meine Netzteilgröße nur noch nach unten geht, d.h. nicht mehr verbraucht wird als jetzt. Umweltschutz/Stromsparen ist da nur ein Aspekt; das ist insgesamt auch kostengünstiger, leiser und besser zu Kühlen. Macht bei gleichbleibend/weniger Stunden vor dem PC und absehbar nicht massiv steigender genutzter Bildschirmauflösung auch einfach Sinn.

HisN
2021-07-16, 14:38:47
Es gibt kein "genug".
Die Gier der Menschheit ist unendlich :-)

E6UuIXWs9EY


Was mein Rechner beim zocken verbrät ist fast schon obzön, und trotzdem will ich nur mehr :-)

https://abload.de/img/stromverbrauch_390w_b9jj3d.jpg (https://abload.de/image.php?img=stromverbrauch_390w_b9jj3d.jpg)

MAX|HASS
2021-07-16, 16:05:38
Ach ja, hisn wieder mit einem seiner obligatorischen Beiträge, der nie ohne einen Schirmschuß daherkommt. Er könnte auch einfach schreiben, ich verbrauche manchmal auch >4500w oder sonstwas, nein, man muß seine Kommandozentrale sehen können, wie auf der Enterprise. Alle sollen seine vielen Kerne sehen, seine Mördergraka und auch die 128gb läßt er sich einblenden, damit er selber nicht eines Tages vergißt, wieviel er eigentlich hat. Lachhaft.

Dazu passen einfach deine Sätze mit Gier, unendlich und natürlich willst du immer nur mehr, is doch klar. Mach doch hin und wieder mal deinen Kasten aus, dann wirst du feststellen, daß schon vor Jahren ein Umdenken stattgefunden hat. Wo? Draußen, in der realen Welt, mußt du mal den Rollladen hochmachen.

Zum Thema: Ich habe auch gedrückt "imho heute schon zu viel Verbrauch", aber letztlich schaufeln die Dinger ja auch genügend Pixel durch den Raum. Prozentual gesehen zu älteren Generationen dürfte man sich dieses Verhältnis wahrscheinlich nicht ansehen, da würden die aktuellen Karten bestimmt schlechter darstehen. Ich hatte vor einiger Zeit bei CP2077 gesehen, wie acht AMD-Kerne mit 3090 in der Spitze über 700w aus der Dose nuckelten, da ist mir ganz schlecht geworden. Als würde man stundenlang seinen Staubsauger auf volle Lotte saugen lassen. Das war der Anlaß, mal zu googeln, was meine alte 1070 so verbraucht und CB attestierte der Karte seinerzeit rund 150w (Gesamtsystem ca. 220w). Das ist schon ein himmelweiter Unterschied und das in so wenigen Jahren. Allerdings eben ohne 4k-Schüssel, ohne HDR, ohne 144hz, ohne raytracing, ohne ohne. Bin voll im Arsch, zocke eben wie 2016 (buuuuuuuuuh!).

BlacKi
2021-07-16, 16:21:59
und der karen award geht an...

ChaosTM
2021-07-16, 17:51:29
Es gibt kein "genug".
Die Gier der Menschheit ist unendlich :-)

https://youtu.be/E6UuIXWs9EY


Was mein Rechner beim zocken verbrät ist fast schon obzön, und trotzdem will ich nur mehr :-)

https://abload.de/img/stromverbrauch_390w_b9jj3d.jpg (https://abload.de/image.php?img=stromverbrauch_390w_b9jj3d.jpg)

Quad SLI war da krank. 20-30% Mehrleistung für Karte 3 und 4. ;)
Das war wirklich dumm.

HisN
2021-07-16, 22:34:22
Und trotzdem wurde es gemacht.

ChaosTM
2021-07-16, 22:49:25
Mehr als 2 Karten hab ich nie benutzt, aber echte Benchmark Freaks kamen daran natürlich nicht vorbei.

Sardaukar.nsn
2021-07-16, 23:27:42
Ich bin da voll auf Hisn Seite. PC und Gaming ist einer der wenigen Hobbys wo die sich jedes Jahr extrem weiterentwickeln. Ich (39) bin damals mit Sim Ant auf 386er, Gameboy und Snake auf dem Nokia aufgewachsen. Lanpartys organisiert und WoW durchgespielt.
Heute lernen meine Kinder eine Maus zu bedienen mit LEGO Builders Journey. Die haben ihren Rätselspaß und ich freue mich an der Raytracing Pracht.

https://i.imgur.com/OAYDr1Z.jpg

Damit diese Reise in den nächsten Jahrzehnten weitergeht brauch es auch Leute wie Hisn die hier und da mal übertreiben, aber die Grenzen weiter voran schieben.

BlacKi
2021-07-16, 23:32:01
zumal das ein worst case war und nicht avg consumption. und dann ist das alles befeuert mit dem deutschen strommix. das kann garnicht so schlimm sein wie z.b. in urlaub zu fliegen.