PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Wann ist es genug beim Grafikkarten-Stromverbrauch?


Leonidas
2021-07-10, 16:30:59
Link zur Umfrage:
https://www.3dcenter.org/umfrage/umfrage-wann-ist-es-genug-beim-grafikkarten-stromverbrauch

Link zur Umfrage-Auswertung:
https://www.3dcenter.org/news/umfrage-auswertung-wann-ist-es-genug-beim-grafikkarten-stromverbrauch

Rabiata
2021-07-10, 16:55:03
Ich schaue bewußt eine Klasse tiefer, ausgehend von meiner uralten Radeon HD 7850. Die hat 120W TDP und galt seinerzeit als gute Mittelklasse.
Heute würde ich z.B. eine RX 5500 XT nehmen, die nur als Mainstream gilt. Oder eine 6600, wobei da die Specs noch nicht genau bekannt sind.

In absoluten Zahlen verbrät die RX 5500 XT dasselbe wie die HD 7850, aber ich würde zumindest die Eskalation beim Verbrauch nicht mitmachen.

schreiber
2021-07-10, 16:59:58
Langfristig wird man keine andere Wahl haben, wenn man was schnelleres im Rechner haben möchte. Die Fertigungsstrukturen sind halt am Ende bzw. nahe dem Ende.

[x] Ich suche nach dem Sweet Spot. Preis, Leistung, Leistungsaufnahme, Geräuschkulisse....

Sweepi
2021-07-10, 17:12:25
Ich hätte gerne deutliche Fortschritte bei Performance/Watt.
Das höhere „Watt-SKUs“ angeboten werden, ist ok.

von Richthofen
2021-07-10, 17:12:53
Es sollte auch eine AMD-Tabelle geben.

Lyka
2021-07-10, 17:13:40
Es sollte auch eine AMD-Tabelle geben.


Ja, das habe ich auch vermisst.

bloodflash
2021-07-10, 17:19:10
Bei der aktuellen Diskussion über Energiewende und Klimawandel empfinde ich die Diskussion nur noch als zynisch.

Die aktuelle RX570/8GB ist für mich schon over the top. Ist im Treiber aktuell mit einem Powerlimit von -15 eingestellt. Der Wettkampf der Hersteller um jeden Benchmarkpunkt führt aktuell zu Modellen, die mit 20% weniger Verbrauch gerade mal 5% Performance einbüssen. Eine 6700 ohne XT mit 12GB aber max. 150W wäre für mich das Höchste der Gefühle.

Bei CPUs reichen mir die 65W-Varianten mit zusätzlicher Begrenzung des PL auch aus. Z. B. Ein 5700G. Das führt dann auch zu einem max. 400W Netzteil und damit zusätzlichen Einspareffekten.

Die Leistungsspitze finde ich einfach nur noch dekadent, ineffizient und unnötig. Wenn ich dann noch die Aufrüstfrequenz der PCMR und vollkommen ausufernden Übertaktungsergebnisse sehe *kopfschüttel*

Blase
2021-07-10, 17:27:41
Bin nicht ganz sicher, wo ich mich wieder finde.

Grundsätzlich hätte ich gerne das frühere Niveau bezüglich Stromverbrauch, kauf(t)e aber ungeachtet dessen trotzdem (3080). Letztlich würde ich aber auch ein noch höheren Verbrauch akzeptieren, wenn denn die Leistung stimmt. Für letzteres, statt ersteres, habe ich entsprechend gestimmt...

MfG Blase

Sweepi
2021-07-10, 17:32:32
Bei der aktuellen Diskussion über Energiewende und Klimawandel empfinde ich die Diskussion nur noch als zynisch.


Das ist leider ein hauefiges Missverständnis. Die Energiewende ist geschafft, wenn alle Energie nachhaltig gewonnen/erzeugt wird. Selbsteinschränkungen helfen nur den Leuten, die auf Kosten der Allgemeinheit das Problem länger ignorieren (dürfen).

Zudem ist die Verhältnismäßigkeit zu beachten: Mal überschlagen, wie weit der Jahresverbrauch eines Gaming-PCs mit einem Auto fahren kann.

Fusion_Power
2021-07-10, 17:37:49
Bei 75W GPU TDP ist bei mir Schluss, aber ich bin auch nicht mehr der große Zocker. Und ausgerechnet Apple hat mit dem M1 gezeigt, dass man ordentliche Grafikleistung auch mit bedeutend weniger TDP erreichen kann, zumindest theoretisch. Deren aktuelle iGPU soll aufm Papier ja ne GTX 1650 übertreffen, das wäre viel Leistung für die läppischen 10W TDP. Wenn die Treiber das nur in Games widerspiegeln täten. :usad:
Intel hat mit dem mobilen Tiger Lake und der XE GPU auch aufgeholt was Leistung angeht, aber da ist ebenfalls noch Luft nach oben.
Wären dedizierte GPUs dermaßen effizient, könnte man sicher noch wesentlich mehr Leistung pro Watt raus kitzeln, also zumindest ich brauch aber keine 200W GPU, ist eh schon viel zu warm im Sommer hier unterm Dach wo mein PC steht. :D

Sardaukar.nsn
2021-07-10, 20:15:04
Der GPU bzw. Gaming Markt entwickelt sich halt in beide Richtungen. Die Leistung von mobilen Geräten mit Akku ist heute schon enorm und wird sich bestimmt noch steigern. Diablo Mobile könnte da den Durchbruch bringen. Auf der anderen Seite entwickelt sich ein High-End Markt der mit anderen Männerhobbys wie Fahrrad oder TV/Audio/HiFi. Da sind wir im PC Bereich noch lange nicht am Ende der Fahnenstange, eher erst am Anfang. Ich freue mich aber die große Reise.

Lyka
2021-07-10, 20:16:31
Ich sehe das Problem hier, dass sich der hohe Stromverbrauch einfach nicht lohnt. Wieviele Leute kaufen sich hochgepowerte Grafikkarten für andere Dinge außer Benchmarks? 4k-Gaming existiert (noch) nicht.

iamthebear
2021-07-10, 20:39:27
1.) Die Einordnung nur basierend auf dem Namen halte ich für nicht sinnvoll.

Pascal:
Die 1080 Ti war eine 700 Euro Karte und sollte mit der 2080 verglichen werden
Die 1080 war eine 500 Euro Karte so wie die 2070
Die 1070 war eine 400 Euro Karte (2060 Niveau)

Ampere:
Die 3080 gab es bisher nie um 700 Euro und wird jetzt wohl durch die 3080 Ti ersetzt werden.

2.) Wem der Verbrauch zu viel ist, der kann das Powerlimit ja einfach etwas runter stellen.

Eine 380 läuft mit nur 4% Performanceverlust wunderbar mit 50W weniger:
https://www.computerbase.de/2020-09/geforce-rtx-3080-test/6/#abschnitt_rtx_3080_vs_rtx_2080_ti_bei_270_watt

Bei der 3070 Ti sind ganze 70W weniger drin für nur 5% weniger:
https://www.computerbase.de/2021-06/nvidia-geforce-rtx-3070-ti-review-test/4/#abschnitt_rtx_3070_vs_rtx_3070_ti_bei_220_watt

4k-Gaming existiert (noch) nicht.

Wieso sollte 4K Gaming nicht existieren? Also ich spiele derzeit mit einem 65" Fernseher als Monitor und da ist Auflösung alles. Dafür opfere. Da schraube ich auch gerne ein paar Effekte zurück, damit ich die Auflösung so hoch wie möglich stellen kann.

Rechner-Tester
2021-07-10, 21:21:10
Ich kann mit den Antwortmöglichkeiten nichts anfangen. Mit Wattbereichen für die Auswahl wüsste ich was ich auswähle.
Wobei ich finde, dass die Leerlaufleistungsaufnahme häufig zu kurz kommt. Die meistens Rechner sind die überwiegende Zeit im Idle, da machen 5 oder 30 Watt einen deutlichen Unterschied. Das gilt auch für die CPUs

OpenVMSwartoll
2021-07-10, 21:32:21
Das ist leider ein hauefiges Missverständnis. Die Energiewende ist geschafft, wenn alle Energie nachhaltig gewonnen/erzeugt wird. Selbsteinschränkungen helfen nur den Leuten, die auf Kosten der Allgemeinheit das Problem länger ignorieren (dürfen).

Zudem ist die Verhältnismäßigkeit zu beachten: Mal überschlagen, wie weit der Jahresverbrauch eines Gaming-PCs mit einem Auto fahren kann.

Die Diskussion wäre interessant, ist aber OT. Aber wenn weniger Energie verbraucht wird (wir haben nicht grundlos mittlerweile statt Glühbirnen LED-Leuchtmittel), muss auch weniger erzeugt werden.

Daß dies durch Elektroautos konterkariert wird: Was stört es die Glaubensgemeinschaft?

Aber BTT: Ne Klasse kleiner reicht auch für meine Zwecke.

Ronald79
2021-07-10, 21:39:37
Ich habe bewusst eine RX 6800 gekauft obwohl die RX 6800 XT nicht viel mehr gekostet hat.

Ich bin mit der Performance Pro Watt sehr zufrieden. Ich möchte im Sommer auch spielen ohne mein Raum noch mehr aufzuheizen. Für mich ist bei 250W Schluss lieber weniger.

Semmel
2021-07-10, 22:38:47
Ich sehe das Problem hier, dass sich der hohe Stromverbrauch einfach nicht lohnt. Wieviele Leute kaufen sich hochgepowerte Grafikkarten für andere Dinge außer Benchmarks? 4k-Gaming existiert (noch) nicht.

Ich habe seit dem Frühjahr 2019 einen 4K-Bildschirm und nutze es, wo es geht. Meine damalige VII kam da schon öfter an ihre Grenzen und das (dank Mininghype effektiv kostenlose) Upgrade zur 6900 XT hat einiges gebracht.

Zum Topic:
Die Hersteller-TDP ist mir ziemlich egal, solange man selber nachjustieren kann.
Meine 6900 XT läuft mit Undervolting auf 200 Watt.

Mortalvision
2021-07-10, 22:59:56
Mir ist der Verbrauch meiner GPU völlig egal. Früher war ich aufm Effizienztrip bei PCs. Heute spare ich in einer Eoche durch kraftstoffsparendes Verhalten auf der Autobahn mein ganzes PC Strombudget im Jahr ein. Wäre wohl anders, tät ich minern.

BlacKi
2021-07-10, 23:56:40
Ich schaue bewußt eine Klasse tiefer, ausgehend von meiner uralten Radeon HD 7850. Die hat 120W TDP und galt seinerzeit als gute Mittelklasse.
Heute würde ich z.B. eine RX 5500 XT nehmen, die nur als Mainstream gilt. Oder eine 6600, wobei da die Specs noch nicht genau bekannt sind.

In absoluten Zahlen verbrät die RX 5500 XT dasselbe wie die HD 7850, aber ich würde zumindest die Eskalation beim Verbrauch nicht mitmachen.die 7850 hat mehr als 200w genommen. die amd karten wurden damals auch wegen ihres hohen verbrauchs kritisiert. eine 680 war schon oberklasse 2012 mit 180w.auch wenn das nicht der große kepler war.

BTB
2021-07-11, 00:04:09
Ich sehe das Problem hier, dass sich der hohe Stromverbrauch einfach nicht lohnt. Wieviele Leute kaufen sich hochgepowerte Grafikkarten für andere Dinge außer Benchmarks? 4k-Gaming existiert (noch) nicht.

Sehe ich auch anders. Seit den RTX Karten speziell mit DLSS geht 4k sehr gut. Spiele alles auf 86"

Stromverbrauch der Karte? Wayne? Was macht das aus wenn ich nicht 24/7 mine?

Karte darf nicht zu laut werden mit dem Kühlsystem, mehr interessiert beim zocken nicht.

wandermann
2021-07-11, 00:46:20
Dieses Thema wird vermutlich gerade in Deutschland heiß gekocht, weil hier der Strom leider so teuer gemacht wurde. Wenn der Strom billiger wäre wie fast überall auf der Welt sähe man 300W-Verbräuche auch etwas entspannter.

Deshalb glaube ich auch nicht, dass der Verbrauch der Produkte nur für den deutschen Markt sinken wird, sondern es wird so weiter gehen.

ChaosTM
2021-07-11, 00:58:37
Im Winter ist die Graka Teil des Heizsystems und im Sommer kann man undervolten. Strom ist hier mit 15-19 cent (je nach Tageszeit) auch deutlich billiger.
Und bald kostet er fast gar nichts mehr, weil wir sowohl in Wien (über die Hausverwaltung) als auch am Land bei den Eltern eine PV Anlage haben/kriegen.

@Lyka.: ich spiel seit bald 7 Jahren auf einem 4k Monitor, aber sehr oft nur in 1800p. Und das auch erst seit der 1080ti. Das ist das schöne an einem High-DPI Ausgabegerät. Die Auflösung ist fast frei wählbar bei akzeptablem Qualitätsverlust. 120+ hz kann er leider nicht.

Platos
2021-07-11, 03:11:22
Das ist leider ein hauefiges Missverständnis. Die Energiewende ist geschafft, wenn alle Energie nachhaltig gewonnen/erzeugt wird. Selbsteinschränkungen helfen nur den Leuten, die auf Kosten der Allgemeinheit das Problem länger ignorieren (dürfen).

Zudem ist die Verhältnismäßigkeit zu beachten: Mal überschlagen, wie weit der Jahresverbrauch eines Gaming-PCs mit einem Auto fahren kann.

Gaaaaaanz falsch. Gestern dachten die Leute noch, man könnte die Ozeane nicht leer fischen und heute denken (die) Leute, erneuerbare Energien kann man endlos bauen.

1. Gibt es eine begrenzte Fläche/Volumen auf der Erde (auch der Mond ist begrenzt).
2. Wenn man die Natur nicht noch weiter versiegeln will, ist sie noch viel schneller begrenzt.

Wohl eher ist deine Aussage eine Wiederspiegelung von Greenwashing. Ist die Enerige erneuerbar, kann man so viel verschwenden, wie man will...

Leonidas
2021-07-11, 06:10:00
Es sollte auch eine AMD-Tabelle geben.

Ist bei AMD schwieriger, weil es da meist kein so durchgehendes Portfolio gibt und es auch stärkere Umbrüche gibt. Ältere AMD-Karten konnten teilweise früher auch schon 300W erreichen.




1.) Die Einordnung nur basierend auf dem Namen halte ich für nicht sinnvoll.

Alle diese Einordnungen sind suboptimal. Jene sind aber auch nur als Beispiele gebracht, die Umfrage hängt nicht direkt daran.





die 7850 hat mehr als 200w genommen.


Könntest Du die 7950 gemeint haben? Die hatte TDP 200W, verbrauchte real aber 147W.

Die 7850 stand bei 130W TDP und verbrauchte 96W.

Quelle:
https://www.3dcenter.org/artikel/stromverbrauchs-ueberblick-fuer-directx-11/12-grafikkarten/stromverbrauchs-ueberblick-fuer-d#hd7000

ChaosTM
2021-07-11, 07:29:25
Meine 290X hat im UBER Mode bereits 2013 270 Watt aus dem Brett gesaugt. Ohne Aftermarket Kühler Accelero III war das Ding nicht ohne Gehörschäden zu verwenden.

Sardaukar.nsn
2021-07-11, 09:57:12
Mir ist der Verbrauch meiner GPU völlig egal. Früher war ich aufm Effizienztrip bei PCs. Heute spare ich in einer Woche durch kraftstoffsparendes Verhalten auf der Autobahn mein ganzes PC Strombudget im Jahr ein. Wäre wohl anders, tät ich minern.

Ja was kostet der Gaming Stromverbrauch eigentlich?

Der Einfachheit halber nehme ich mal für meinen PC (5800x + RTX 3080) einen Gaming Verbrauch von 500 Watt an. Ist aber meist deutlich weniger. Eine Kilowatt Stunde kostet hier gut 25 Cent. Macht etwa 13 Cent für eine Stunde Vollgas spielen.

Möchte ich hier im Haushalt Geld oder Energie sparen möchte, gibt es ganz andere Hebel. Daher volle Zustimmung @Mortalvision

BTB
2021-07-11, 10:41:21
Ja was kostet der Gaming Stromverbrauch eigentlich?
Der Einfachheit halber nehme ich mal für meinen PC (5800x + RTX 3080) einen Gaming Verbrauch von 500 Watt an. Ist aber meist deutlich weniger. Eine Kilowatt Stunde kostet hier gut 25 Cent. Macht etwa 13 Cent für eine Stunde Vollgas spielen.

Ich glaub ich messe das mal die Tage. 10700k mit 3060ti - TV lass ich mal aussen vor. Wäre ja nicht unwahrscheinlich dass man alternativ Netflix guckt. Also das reine Gaming als Extra-Posten.

CD-LABS
2021-07-11, 11:15:25
Hmm, leider gibt es hier keine für mich passende Antwortoption.
Ich sehe die absoluten Leistungsaufnahmen nicht als Problem an, der Effizienzfortschritt ist einfach zu gering. Das ist verwand mit "Selbst ein deutlich höheres Verbrauchs-Niveau wäre gangbar, sofern die Performance passt.", aber eben bloß verwand...


Was meine ich selber?
Geht mal in Gedanken zurück zu Maxwell, also zur letzten Generation mit etwa einer Effizienzverdoppelung. Und dann stellt euch vor, damals wären Chiplet-GPUs möglich geworden und aus einer 980ti@250W wäre dann eine 990ti@500W gefolgt, bei der zwei modifizierte GM200 glued together worden wären und (ohne AFR, wirkliches zusammengluen!) doppelte Performance erreicht hätten.
So eine Form der Leistungsaufnahmeexplosion halte ich bereits für recht unproblematisch. Noch besser wäre natürlich, wenn die Karte dann beispielsweise auf 400W gedeckelt würde und entsprechend sogar effizienter als die SingleChipletKarte wäre.

Okay, raus aus dem Gedankenspiel, was konnte hierdurch verstanden werden?

Hohe Peak-Leistungsaufnahme und Ineffizienz sind nicht das gleiche Problem.
Es könnte gut sein, dass bei ChipletGPUs die Peak-Leistungsaufnahmen explodieren würden; zumindest sofern AMD oder Nvidia das Gefühl bekommt, dass Performance durch die Decke zu gehen hätte...
Dass klassisches SLI untergegangen ist, ist auf jeden Fall aus Effizienzgründen zu befürworten.
Das alles ist nicht, was bei Ampere geschehen ist.

Ampere nutzt einfach nur eine hochgeprügelte Grundarchitektur mit marginalem Effizienzgewinn gegenüber der bereits in Punkto Effizienzfortschritt schwachen Grundarchitektur. (zumindest im Rasterizereinsatz ist der Effizienzfortschritt gering; beim Raytracing ist der Fortschritt sogar ordentlich)
Insbesondere wurden die Ampere-Karten ja auch mit problematischen Speicher ausgestattet und die Chips in eher billiger Fertigung produziert...


Um mal langsam zum Ende zu kommen: Ich hätte nichts dagegen, wenn Ampere in einer Neuauflage mit HBM2E und in einem EUV-Verfahren bei den aktuellen Leistungsaufnahmen bleiben würde, sofern die Effizienzscharte ausgewetzt wird. Ich habe auch nichts dagegen, wenn künftige Generationen auf Chipletbasis sich in höheren Wattklassen befinden werden. Ihre Grundarchitekturen sollten nur ordentlich Effizienz liefern, für die Kühlung wäre es vielleicht sinnvoll, sie noch etwas zu drosseln, die Kühler sollten natürlich besser werden und allen voran wäre es natürlich sehr gut, wenn weniger PowerTarget-Anpassungen notwendig wären. (weil Spiele nicht mehr in Hauptmenus unnötig Performance einfordern würden...)

Ach, und natürlich ist es super wichtig, dass aus den berechneten Informationen flächendeckend mehr gemacht wird, als es aktuell der Fall ist. DLSS-ähnliche Technologie sollte überall genutzt werden.

Platos
2021-07-11, 11:19:33
Geht hald nicht immer nur ums Geld. Naja, manchen anscheinend schon...

Abgesehen davon, dass das immer noch 500 Euro in 10 Jahren sind.

Aber klar, solange man noch wo anders mehr Strom/Energie Sparen könnte, hat man ja ne Ausrede nix zu tun...

BlacKi
2021-07-11, 11:26:33
Könntest Du die 7950 gemeint haben? Die hatte TDP 200W, verbrauchte real aber 147W.

Die 7850 stand bei 130W TDP und verbrauchte 96W.

ja, da kam die späte uhrzeit und ein verbrauchstest mit systemgesammtverbrauch zusammen.

Marodeur
2021-07-11, 11:42:26
Ich nutze aktiv die Möglichkeiten die sich mit Undervolting anbieten was sich zumindest bei der 3070 in deutlich niedrigerem Stromverbrauch bemerkbar macht. Finde aber auch den aktuellen Zustand als maximum tragbar. Es soll vor allem leise sein ohne das ich alles unter Wasser setzen muss, auch hier hilft Undervolting deutlich.

Schön wäre es wenn Hersteller entsprechende Optionen einbauen würden und mir die Wahl lassen ob 90% der Performance bei deutlich sinkendem Stromverbrauch (und niedrigerer Geräuschkulisse) ausreicht mit einfach zu erreichendem Softwareswitch und ohne zu überlegen was stell ich jetzt ein. Und nur bei Bedarf dann eben 100% (Raytracing, 4k, etc.). Wer nahezu 100% bei gesenktem Verbrauch will muss dann halt noch Hand anlegen.

CD-LABS
2021-07-11, 11:48:39
Gaaaaaanz falsch. Gestern dachten die Leute noch, man könnte die Ozeane nicht leer fischen und heute denken (die) Leute, erneuerbare Energien kann man endlos bauen.

1. Gibt es eine begrenzte Fläche/Volumen auf der Erde (auch der Mond ist begrenzt).
2. Wenn man die Natur nicht noch weiter versiegeln will, ist sie noch viel schneller begrenzt.

Wohl eher ist deine Aussage eine Wiederspiegelung von Greenwashing. Ist die Enerige erneuerbar, kann man so viel verschwenden, wie man will...
Tatsächlich ist das ganze deutlich komplexer; insbesondere wird oftmals umweltfeindlich verzichtet.
Gerade Lowendgrakas oder Lowendsmartphones zu kaufen wäre dafür ein Beispiel; diese Geräte können im Gesamtmarkt (also Erstbenutzer und weitere Gebrauchtkäufer) kürzer im Einsatz bleiben. Das liegt daran, dass sie insgesamt die schlechteren Produkte und nicht bloß andere Produkte sind --- eine HighEndGraka auf das Niveau einer LowEndGraka gebremst erledigt das, was sie kann, effizienter. Allerdings sabotiert zum Beispiel ein Apple solche Regeln im Smartphonemarkt, indem sie zu knausrig beim Speicher sind und nicht lang genug Softwareupdates liefern --- auch wenn sie für letzteres oftmals gelobt werden, bewegt sich ihr sie nur auf niedrigem Niveau gut, zehn Jahre plus sollten mittlerweile mindestens drinne sein. Wie gesagt, auf niedrigem Niveau sind sie gut, aber das Niveau muss eben insgesamt steigen.

Darüber hinaus ist eine gewisse Form von Verschwendung tatsächlich sogar Teil der Energiewende. Dieses Video erläutert das Konzept ganz gut: https://www.youtube.com/watch?v=PM2RxWtF4Ds

Weil die Energiewende dafür sorgen wird, dass es zeitweise quasi kostenlose Energie geben wird, lohnen sich auch Projekte, die ansonsten niemals rentabel (verschwenderisch) wären. (zum Beispiel vielleicht die Bindung von Treibhausgasen oder die Synthese von Wasserstoff)

iamthebear
2021-07-11, 11:58:52
Rechnen wir das einmal grob durch:
25 Cent/KWh
5 Jahre Nutzungszeit der GPU

100 Watt mehr oder weniger machen pro Stunde Gaming am Tag ca. 45 Euro aus.

Solange also nicht jeden Tag 10 Stunden zockt halten sich die Unterschiede also ziemlich im Rahmen.

Eher wichtiger ist im Sommer (ohne Klimaanlage) die Erhitzung des Raums bzw. die allgemeine Belastung der Hardware durch höhere Temperaturen. Den VRAM dauerhaft auf über 100 Grad zu grillen sorgt vermutlich zu höheren Ausfallsraten. Durch die Garantiezeit kommt man meistens noch gut durch aber ich habe keine Lust, dass mir die GPU in 4 Jahren ausgerechnet mitten imnächsten Miningboom verreckt wenn es nichts sinnvolles zu kaufen gibt. Einmal abgesehen davon, dass es zumindest ohne iGPU immer etwas mühsam ist die GPU als tatsächlichen Auslöser für Systemabstürze zu identifizieren. Also aktuell habeich keine Reservekarte mehr herumliegen.

NeMeth
2021-07-11, 11:58:59
Ich habe bewusst eine RX 6800 gekauft obwohl die RX 6800 XT nicht viel mehr gekostet hat.

Ich bin mit der Performance Pro Watt sehr zufrieden. Ich möchte im Sommer auch spielen ohne mein Raum noch mehr aufzuheizen. Für mich ist bei 250W Schluss lieber weniger.

Same here. 300W sind für mich eine Schallmauer, da ist Schluss. Die 6800 braucht kaum mehr als meine Vorherige 5700XT, damit konnte ich mir das Upgrade gutreden.

Lehdro
2021-07-11, 12:00:21
Schön wäre es wenn Hersteller entsprechende Optionen einbauen würden und mir die Wahl lassen ob 90% der Performance bei deutlich sinkendem Stromverbrauch (und niedrigerer Geräuschkulisse) ausreicht mit einfach zu erreichendem Softwareswitch und ohne zu überlegen was stell ich jetzt ein. Und nur bei Bedarf dann eben 100% (Raytracing, 4k, etc.). Wer nahezu 100% bei gesenktem Verbrauch will muss dann halt noch Hand anlegen.
1. BIOS Switch mit Silence/Performance BIOS
2. AMD hat einen UV Switch im Treiber

Ansonsten, wie du schon sagst, selber UV betreiben mit Curve Editor oder über Wattman.

Slashman
2021-07-11, 12:06:58
Die Grafikkarten von Heute schlucken viel zu viel Strom. Früher hatte eine 7950GX2 Dual GPU Karte 110 Watt... Bis 200 Watt total Board Power habe ich es noch akzeptiert, aber jetzt schlucken schon 250-300mm2 GPUs 230 Watt und mehr. 350 Watt ist zu viel für ein Chip.

Bis 200 Watt TDP für Enthusiasten!/High End (350-400mm² DIE Fläche)
Bis 150 Watt TDP für die Performance Klasse (250-350mm²)
Bis 100 Watt TDP für die Mittel klasse (150-250mm²)
Bis 50 Watt dann Low End Klasse

Warum muss das alles so ausarten. Ich betreibe meine RX 5700XT UV mit 90 Watt TDP (50% des original Zustand). Es ist genug Leistung damit vorhanden... Statt 1,9 GHz (180 Watt TDP) sind es 1,45 GHz (90 Watt). Ich spiele in 4K und das mit ansprechender Grafik und guten Details... Muss es Ultra Details sein... Muss ein Spiel so schlecht optimiert sein das eine 350 Watt Karte gerade so 60FPS schafft in 4K...

Das ist ein Rattenschwanz... Die Entwickler sehen oh ich muss nicht optimieren, weil PC Spieler eh aufrüsten. Die PC Hersteller machen immer weniger Fortschritte in der Architektur Effizienz, weil der Konsument schon bereit ist 350 Watt GPUs zu kaufen.

Nur so als Tipp:
Meine RX 5700XT liefert mit 90 Watt TDP fast 1,5 GHz.
Mit den 180 Watt sind es nur maximal 1,95 GHz.. Quasi für 25% mehr Takt einfach 100% mehr Strom.

Seit ihr echt bereit heiße, laute, stromhungrige GPUs mit kurzer Lebensdauer zu wollen für nur knapp 20% Mehr Leistung... Denkt keiner an die Umwelt, das Stromnetz und die Kosten? Wisst ihr das für Silizium spezieller Sand benötigt wird. Meeres sand um genau zu sein. Es wurde mal gezeigt wie viel Korallen dafür drauf gehen damit ihr jedes Jahr ein neues Handy und PC Grafikkarte kaufen könnt. Deshalb kaufe ich mir frühestens alle 4 Jahre eine neue Grafikkarte... Eher später. Wie gesagt muss keine Grafikkarte 800mm² groß sein und 350-450 Watt schlucken...

Wie beim Auto, wo der Staat den Herstellern vorgibt was für ein Verbrauch und Ausstoß der Wagen haben darf, so befürworte ich auch das GPU Herstellern Grenzen gesetzt werden. Was kommt dann in 5 Jahren eine 250-300mm2 GPU ala RTX 5070 mit 500 Watt TDP...

CD-LABS
2021-07-11, 12:09:01
Ich nutze aktiv die Möglichkeiten die sich mit Undervolting anbieten was sich zumindest bei der 3070 in deutlich niedrigerem Stromverbrauch bemerkbar macht. Finde aber auch den aktuellen Zustand als maximum tragbar. Es soll vor allem leise sein ohne das ich alles unter Wasser setzen muss, auch hier hilft Undervolting deutlich.

Schön wäre es wenn Hersteller entsprechende Optionen einbauen würden und mir die Wahl lassen ob 90% der Performance bei deutlich sinkendem Stromverbrauch (und niedrigerer Geräuschkulisse) ausreicht mit einfach zu erreichendem Softwareswitch und ohne zu überlegen was stell ich jetzt ein. Und nur bei Bedarf dann eben 100% (Raytracing, 4k, etc.). Wer nahezu 100% bei gesenktem Verbrauch will muss dann halt noch Hand anlegen.
Persönlich nutze ich Shortcuts im Afterburner, STRG+Shift+1=40%Powertarget, STRG+Shift+2=55%Powertarget, ...
...aber da ginge eben viel mehr, wenn die Hersteller und auch die Spieledevs sich richtig reinknien würden.
Für ersteres bräuchte es wahrscheinlich einmal ein dominantes AMD, für letzteres insbesondere einen gesunderen Gamingnotebookmarkt.
Eigentlich gilt ja die Diverse, dass sobald ein Gerät mit einem Akku versehen wird, Effizienzfortschritte in vorher stagnierenden Bereichen quasi zum Selbstläufer werden. Siehe Akkustaubsauger, Akkuautos (E-Autos), Drahtloskopfhörer, ...

Slashman
2021-07-11, 12:56:49
Übrigens fand ich schon die GeForce 8800 Ultra mit 480mm2 und 180 Watt TDP arg hoch, wenn der Vorgänger die GeForce 7800 GTX 512 mit 110 Watt TDP auskam bzw. die 7950 GX2 mit 110 Watt trotz Dual GPU...

Seit dem Punkt geht es nur Aufwärts mit dem Verbrauch...

Platos
2021-07-11, 13:04:06
Tatsächlich ist das ganze deutlich komplexer; insbesondere wird oftmals umweltfeindlich verzichtet.
Gerade Lowendgrakas oder Lowendsmartphones zu kaufen wäre dafür ein Beispiel; diese Geräte können im Gesamtmarkt (also Erstbenutzer und weitere Gebrauchtkäufer) kürzer im Einsatz bleiben. Das liegt daran, dass sie insgesamt die schlechteren Produkte und nicht bloß andere Produkte sind --- eine HighEndGraka auf das Niveau einer LowEndGraka gebremst erledigt das, was sie kann, effizienter. Allerdings sabotiert zum Beispiel ein Apple solche Regeln im Smartphonemarkt, indem sie zu knausrig beim Speicher sind und nicht lang genug Softwareupdates liefern --- auch wenn sie für letzteres oftmals gelobt werden, bewegt sich ihr sie nur auf niedrigem Niveau gut, zehn Jahre plus sollten mittlerweile mindestens drinne sein. Wie gesagt, auf niedrigem Niveau sind sie gut, aber das Niveau muss eben insgesamt steigen.

So ein Blödsinn, wirklich:confused:. Mein 5 Jahre altes Smartphone mit nem SD 625 kann man (hardwaretechnisch) immer noch 1A gebrauchen (würde ich auch, hätte ich es nicht verloren). Und man könnte es auch nochmals 5 weitere Jahre brauchen. Das war vlt. vor 2016 (SD 625) so, heute aber nicht mehr. Abgesehen davon hast du dir mit Handys grad das schlechteste Beispiel ausgesucht. Mit ihren schnellen und langsamen Kernen sind sie das Musterbeispiel von Effizienz von Low-End bis High-End.

Abgesehen davon geht es ja nicht um High-End oder Low-End. Und du suchst dir natürlich gleich Low-End aus, also bewusst das unterste... Es geht um den (mittleriweile) hohen Stromverbrauch (absolut) und auch die extreme Ineffizienz. Welches Gerät das nun hat, ist mir eig. egal. PCs sind was Effizienz anbelangt ein Witz im Vergleich zu Smartphones. Stromverbrauch im Idle/Niedriglast die Hölle und die Grafikkarten werden immer ineffizienter und verbrauchen immer mehr Strom - darum gehts!

Ach ja...Highend-PCs mit extrem hohem Stromverbrauch kann man vlt. Stromsparender betreiben, macht aber niemand. Auch so eine Schönrederei.;) Solange das nicht die default-Einstellung ist, ist es zu kritisieren. (Nochmals: Unter anderem genau darum gehts).

Darüber hinaus ist eine gewisse Form von Verschwendung tatsächlich sogar Teil der Energiewende. Dieses Video erläutert das Konzept ganz gut: https://www.youtube.com/watch?v=PM2RxWtF4Ds

Weil die Energiewende dafür sorgen wird, dass es zeitweise quasi kostenlose Energie geben wird, lohnen sich auch Projekte, die ansonsten niemals rentabel (verschwenderisch) wären. (zum Beispiel vielleicht die Bindung von Treibhausgasen oder die Synthese von Wasserstoff)

Du hast es vlt. nicht verstanden (oder aber du siehst das vlt. leider wirklich nur aus wirtschaftlicher Sicht). Die Energiewende muss nicht aus Kostengründen her, sondern aus Umweltgründen (Genauer: Klimagründen). Von daher ist eine Verschwendung nie Lohnenswert* (in dem Bereich, in dem es hier geht - PC Hardware). Denn es geht hier nicht um Geld. Eine kurzfristige*2 Strompreissenkung als Ausrede zur Verschwendung zu nehmen ist hald auch wieder mal nichts anderes als.... eine faule Ausrede. Aber klar, wenn man keine Argumente hat, dann lenkt man vom Thema ab und kommt von total ineffizienten Grafikkarten zum Binden von Treibhausgasen:rolleyes: Also wirklich, echt jetzt ?


*: Ums nochmals zu Erwähnen: Es geht hier um PC Hardware bzw. man könnte es auch auf Konsumgüter ausweiten und nicht um Maschinen, die C02 bzw. C aus der Atmosphäre binden.

Edit: *2 Nichts anderes als kurzfristig wäre es, wenn man nun anfängt verschwenderisch zu wirtschaften, anstatt genau das Gegenteil anzustreben! Abgesehen davon gehts in dem Video um den Stromverbrauch und nicht um den globalen Energieverbrauch und schon gar nicht um den globalen Energieverbrauch, wenn die ganze Welt einen Standart wie z.B wir hier in Europa haben.

Mr.Smith
2021-07-11, 13:10:20
Der Samsung 8nm Prozess ist einfach nicht optimal, leider.
Ich hoffe es gibt bald wieder mehr schnelle Karten um die 200W..

Nightspider
2021-07-11, 13:38:24
Wenn Navi31 als Chiplet-Vollausbau 2,7 mal so schnell werden sollte wie die 6900XT wäre es mir auche gal wenn die Karte 500-550W saufen würde.

Ich hatte mal das GTX280 SLI Gespann von Tombman übernommen und das hat mit OC auch schon 500-550W verballert. :biggrin:

Und dazu hatte ich mal eine Zeit lang aus Spaß eine alte 8800gt als PhysX-Beschleuniger. Mein Gesamt-PC lag damit eher bei 900-1000W.

Solange der Idle-Verbrauch passt ist mir das schnurz egal wie viel Saft die unter Last ziehen.

Die sollen lieber mal den Idle-Stromverbrauch bei 3-Monitor-Setups in den Griff bekommen.

CD-LABS
2021-07-11, 13:55:46
So ein Blödsinn, wirklich:confused:. (...)
Ja, wirklich. Davon ist nichts Blödsinn.
Mein Vorschlag: Lies das Posting nochmal, schau das Video (nochmal?), mit einem Gedanken im Hinterkopf: Das alles stammt einem klar umweltfreundlichen User, nutzt ein FP2, betreibt die 2080ti bei in der Regel 40% Powertarget, fährt kein Auto, kritisiert den StatusQuo von Industrie, misst elektronische Geräte im Haus durch, kauft diverse Alltagsgegenstände nur ein einziges Mal, ...
...denn ich zumindest vermute angesichts des restlichen Postings, dass du ein anderes Bild im Hinterkopf hattest.

Es ist wichtig, dass du die Punkte verstehst. Schau auf alles erst einmal freundlich --- Schwachstellen wirst du in derart kurzen Postings immer finden oder reinlesen können. Es ist in dem Format auch Aufgabe der Lesenden dafür zu sorgen, dass keine Missverständnisse entstehen; und das ist eine Aufgabe aus eigenem Interesse.


Es ist wichtig, dass du die Auswirkungen von LowEnd-Erstkäufen auf Warenkreisläufe verstehst, weshalb eine Highendisierung von (insbesondere Hardware-) märkten aus umweltfreundlicher Perspektive Pflicht ist.
Es ist wichtig, dass du verstehst, dass das Konzept der SuperPower dafür sorgen wird, dass zu unterschiedlichen Zeiten unterschiedliche starke Anreize für Stromverwendung geschaffen werden sollten, auch im Consumerbereich.
Es ist wichtig, dass du verstehst, dass mein Posting keinerlei Ablenkungen enthalten haben, sondern alles voll und ganz die wichtigen Punkte betroffen hat.

von Richthofen
2021-07-11, 14:04:33
Ist bei AMD schwieriger, weil es da meist kein so durchgehendes Portfolio gibt und es auch stärkere Umbrüche gibt. Ältere AMD-Karten konnten teilweise früher auch schon 300W erreichen.
Um zu zeigen das moderne High-End Grafikkarten einen stetig wachsenden Energieverbrauch aufweisen taugt nV im Vergleichszeitraum mehr, dass versteht man.
Es gehört mMn aber auch dazu zu sagen, dass es beide Hersteller betrachtet, gar nicht so wild ausschaut. Natürlich sind 306W Verbrauch einer 6900XT ein neuer Spitzenwert aber eben nur knapp. 390X, Fury-X bzw. Vega64 haben doch auch alle mehr oder weniger 300W weggesoffen - erstere gar schon vor Pascal.
Nichts wäre leichter gewesen als kurz nach Release der großen nV-Bollermänner 3090 (350W) und 3080 (320W) samt dessen Riesenverbräuchen dem Spitzenprodukt 6900 XT eine dickere TDP zur Seite zu stellen. Stattdessen wird es über das Binning gelöst und die Leistungsaufnahme - übrigens genau wie das nächstkleinere Modell 6800 XT - auf 300W gedeckelt.

CD-LABS
2021-07-11, 14:22:48
Übrigens fand ich schon die GeForce 8800 Ultra mit 480mm2 und 180 Watt TDP arg hoch, wenn der Vorgänger die GeForce 7800 GTX 512 mit 110 Watt TDP auskam bzw. die 7950 GX2 mit 110 Watt trotz Dual GPU...Wenn Leute verklärt auf die Performancesprünge aus den Zeiten der frühen 3D-Beschleuniger zurückschauen, dann ignorieren sie übrigens auch häufig, dass gleichzeitig die Leistungsaufnahmen aus dem zweistelligen in den dreistelligen Wattbereich gestiegen sind.

Seit dem Punkt geht es nur Aufwärts mit dem Verbrauch...
Nicht wirklich, Kepler, Maxwell und Pascal waren alle sehr ähnlich ausgelegt und Fermi war schluckender.

Ein Thema, das ich in diesem Thread bislang innerhalb der Betrachtung von Graka-Leistungsaufnahmen vermisse, sind Netzteile: Dort muss es auch mal langsam weitergehen und dafür wäre endlich mal das Auftauchen von neuen Effizienzklassen von Nöten, damit Titanium irgendwann auch mal Mainstream werden kann.

Cybenetics hat ja vorgelegt und Diamond spezifiziert --- 80Plus dreht leider immer noch Daumen und bislang hat kein Hersteller angekündigt, ein Netzteil zu entwickeln, dass die Cybenetics-Effizienzklasse auch erreicht. Aber es braucht ohnehin mehr als eine Klasse über Titanium, wenn Titanium breit etabliert werden soll.

Warum sind Netzteile auch wichtig für die Betrachtung innerhalb von Graka-Leistungsaufnahmen? Na, umso mehr Grakas fressen, umso wichtiger wird hohe Effizienz von Netzteilen unter Last. Wenn Navi31 als Chiplet-Vollausbau 2,7 mal so schnell werden sollte wie die 6900XT wäre es mir auche gal wenn die Karte 500-550W saufen würde.

Ich hatte mal das GTX280 SLI Gespann von Tombman übernommen und das hat mit OC auch schon 500-550W verballert. :biggrin:

Und dazu hatte ich mal eine Zeit lang aus Spaß eine alte 8800gt als PhysX-Beschleuniger. Mein Gesamt-PC lag damit eher bei 900-1000W.

(...)
Sowohl für die historische Betrachtung, als auch für die Zukunftsbetrachtung, die beide in diesem Posting zum Ausdruck kommen, ist das von Bedeutung: Was hast du damals für ein Netzteil genutzt, welches hättest du nutzen können und wie viel mehr hätten die heute besten Netzteile dem gegenüber noch sparen können?

Leonidas
2021-07-11, 14:40:12
Warum muss das alles so ausarten. Ich betreibe meine RX 5700XT UV mit 90 Watt TDP (50% des original Zustand).

Note: Alle Deine Angaben beziehen sich auf die ASIC-Power. Die Karte verbraucht insgesamt ca. 30W mehr als das.

Nightspider
2021-07-11, 14:42:04
Sowohl für die historische Betrachtung, als auch für die Zukunftsbetrachtung, die beide in diesem Posting zum Ausdruck kommen, ist das von Bedeutung: Was hast du damals für ein Netzteil genutzt, welches hättest du nutzen können und wie viel mehr hätten die heute besten Netzteile dem gegenüber noch sparen können?

Hab mir vor 12 Jahren ein Enermax Revolution 87+ mit 1250W geholt und wenn mir das Teil nicht verreckt werde ich es noch lange behalten.

Qualität lohnt sich.

In der Zeit haben Andere wahrscheinlich 3 mal ihr Netzteil gewechselt.

bad_sign
2021-07-11, 15:02:02
Mir fehlt sowas wie, Werksverbrauch ist egal, ich UV/powerlimitiere meine Karte selbst nach Bedarf.
6800XT meist bei ~220W, gut 20W mehr als meine alte 1080TI.
Die 6800XT ist in jeder Disziplin sparsamer und schneller (will man auch hoffen nach 4 Jahren Stillstand :))

Platos
2021-07-11, 15:10:24
Ja, wirklich. Davon ist nichts Blödsinn.
Mein Vorschlag: Lies das Posting nochmal, schau das Video (nochmal?), mit einem Gedanken im Hinterkopf: Das alles stammt einem klar umweltfreundlichen User, nutzt ein FP2, betreibt die 2080ti bei in der Regel 40% Powertarget, fährt kein Auto, kritisiert den StatusQuo von Industrie, misst elektronische Geräte im Haus durch, kauft diverse Alltagsgegenstände nur ein einziges Mal, ...
...denn ich zumindest vermute angesichts des restlichen Postings, dass du ein anderes Bild im Hinterkopf hattest.

Es ist wichtig, dass du die Punkte verstehst. Schau auf alles erst einmal freundlich --- Schwachstellen wirst du in derart kurzen Postings immer finden oder reinlesen können. Es ist in dem Format auch Aufgabe der Lesenden dafür zu sorgen, dass keine Missverständnisse entstehen; und das ist eine Aufgabe aus eigenem Interesse.


Es ist wichtig, dass du die Auswirkungen von LowEnd-Erstkäufen auf Warenkreisläufe verstehst, weshalb eine Highendisierung von (insbesondere Hardware-) märkten aus umweltfreundlicher Perspektive Pflicht ist.
Es ist wichtig, dass du verstehst, dass das Konzept der SuperPower dafür sorgen wird, dass zu unterschiedlichen Zeiten unterschiedliche starke Anreize für Stromverwendung geschaffen werden sollten, auch im Consumerbereich.
Es ist wichtig, dass du verstehst, dass mein Posting keinerlei Ablenkungen enthalten haben, sondern alles voll und ganz die wichtigen Punkte betroffen hat.


Du denkst also wirklich, dass man auch noch Anreize für höhere Stromver(sch-)wendung setzen sollte, "wenns grad billigen Strom gibt"....

Ps. Das Video spricht nirgends davon, dass man künstlich den Stromverbrauch steigern soll im Konsumbereich.

Naja, und hier endet die Diskussion mit dir auch :D Wenn du das wirklich glauben willst, bitte. Da ver(sch-)wende ich meine Zeit nicht länger damit.

Daredevil
2021-07-11, 15:23:11
Die Hersteller-TDP ist mir ziemlich egal, solange man selber nachjustieren kann.
Meine 6900 XT läuft mit Undervolting auf 200 Watt.
+1
Da ich die Karte nie bei Stock Werten betreibe, ist mir auch egal, was sie am Ende schluckt.
Ich stelle ein, was ich brauche, entweder Max Leistung und 400w, moderate Leistung bei 250-300w oder Stromsparen bei 100-200w.

Generell ist mir jedes Watt im Raum zu viel, weswegen der Windows Rechner im Sommer meist aus ist ( nur für Gaming an ) und ich auf meinem ultra Sparsamen M1 MacBook arbeite.
60w Idle sind einfach viel zu viel für den Ryzen und ne 3090, wenn ich alles unter 10w haben kann.
Hätte ich genug Platz, würde ich ( wie früher im Elternhaus ) ein Loch durch die Wand bohren und den Rechner woanders hinstellen.
Jede Hitzequelle im Zimmer ist eine zu viel, ich mags kalt.

Long Story Short:
Der Rechner kann auch meinetwegen 3kW verbrauchen, solange er die Hitze nicht in meinem Zimmer abführt und der Mehrverbrauch gerechtfertigt ist. Solange die Kiste aber in meinem Zimmer steht, so wenig wie möglich, um 4K zu bespielen.
Größter Fehler in meinem Leben war, sich nen 4K Bildschirm zu holen, der mit 120hz laufen kann. :(

Slashman
2021-07-11, 15:48:49
Wenn Leute verklärt auf die Performancesprünge aus den Zeiten der frühen 3D-Beschleuniger zurückschauen, dann ignorieren sie übrigens auch häufig, dass gleichzeitig die Leistungsaufnahmen aus dem zweistelligen in den dreistelligen Wattbereich gestiegen sind.

Nicht wirklich, Kepler, Maxwell und Pascal waren alle sehr ähnlich ausgelegt und Fermi war schluckender.

Ein Thema, das ich in diesem Thread bislang innerhalb der Betrachtung von Graka-Leistungsaufnahmen vermisse, sind Netzteile: Dort muss es auch mal langsam weitergehen und dafür wäre endlich mal das Auftauchen von neuen Effizienzklassen von Nöten, damit Titanium irgendwann auch mal Mainstream werden kann.

Cybenetics hat ja vorgelegt und Diamond spezifiziert --- 80Plus dreht leider immer noch Daumen und bislang hat kein Hersteller angekündigt, ein Netzteil zu entwickeln, dass die Cybenetics-Effizienzklasse auch erreicht. Aber es braucht ohnehin mehr als eine Klasse über Titanium, wenn Titanium breit etabliert werden soll.

Unterm Strich steigt der Stromverbrauch seit Ewigkeiten, aber es muss auch mal Genug sein. Denkt keiner von euch mal weiter als FPS und Benchmarks. Der Strom kommt nicht aus dem nix, ich erwarte ja nicht das eine kommende RTX 5080 nur noch 50 Watt schluckt, aber bei 200 Watt (bestimmt beste Performance/Watt bei 400mm²) ist mal Schluss. Sie (AMD/Nvidia und Intel) müssen langsam aber sicher mal dran denken jetzt wieder einen Rückwärtsgang einzulegen. Wie kann eine Dual GPU der Geforce 7 Serie mit 110 Watt klar kommen (2x 330mm²) und heute muss eine Mittelklasse GPU ala RX 5700 XT 220 Watt schlucken (260mm²). Diese letzten 20% mehr Leistung der GPU wurden mit mehr als dem doppelten an Watt erkauft...

Da lobe ich mir die Autoindustrie, all ihre Fortschritte basieren auf eine höhere Effizienz... Klar mit Limits, aber genial. Mein BMW F10 535D hat 299PS, wiegt 2 Tonnen und schluckt ohne Autobahn 6,5 Liter auf 100km. Der E60 535D (direkter Vorgänger) hat 272/286PS, wiegt 1,6 Tonnen und verbraucht 1 Liter mehr... Er ist leichter, hat weniger Leistung und verbraucht trotzdem mehr. Beides 3 Liter bi Turbo Motoren und beides Diesel.

Ich meine Leute, ist es euch so wichtig die maximale Grafik bei nicht gut optimierten Spielen zu haben um sogar dafür einen Monster Stromverbrauch und eine ordentliche Hitze zu haben.

Note: Alle Deine Angaben beziehen sich auf die ASIC-Power. Die Karte verbraucht insgesamt ca. 30W mehr als das.

Eher 45 Watt mehr bei AMD, aber das ist nicht der Punkt. Der Punkt ist der, das GPUs seit Jahrzehnten an Verbrauch stark zunehmen und es muss Schluss sei. Das ist wichtig für uns in der Welt. Ich hoffe der Staat, bzw. die Staaten klopfen den Herstellern auf die Finger wenn diese weiter Dinge produzieren die mit Absicht nur 2 Jahre halten und total ineffizient Strom verbraten. enBW wird das freuen wenn ihr Strom ohne ende verbraucht. Klar ihr Gewinn, der Verlierer ist mein Sohn^^

Brillus
2021-07-11, 15:52:58
Als Mobil-Käufer bin ich eher an ein hartes Limit gebunden. Wobei bei meinen letzten 2 Laptops der Gesamtverbrauch eher runter ging. Insbesondere beim letzten aber weil ich neuen gebraucht hatte und was ich eigentlich wollte nicht Lieferbar war. Denke mein nächster ist wieder um einiges dicker ausgelegt.

BlacKi
2021-07-11, 16:01:55
wenn man es absolut betrachtet, sinkt sogar der verbrauch. denn die dual gpu karten sind nun seit einiger zeit ausgestorben.^^ da wurden 375w bei der titan z mit nur einem lüfter abgeführt.^^

und es war nicht so als das der hohe stromverbrauch leute vom sli abgehalten hat.

für karten mit hohem stromverbrauch war schon immer ein markt vorhanden.

und mit mcm kommt wohl noch einiges auf uns zu, was den stromverbrauch angeht.

Aroas
2021-07-11, 16:39:03
Was über 200 Watt verbraucht, kommt mir nicht mehr in den Rechner. Allein schon, weil die Kühlung für solche Karten extrem voluminös ausfallen muss, damit das Ganze am Ende noch leise zu betreiben ist.
Das kostet letztlich nicht nur bei der Stromrechnung, sondern eben auch in der Anschaffung.

CD-LABS
2021-07-11, 16:57:44
Du denkst also wirklich, dass man auch noch Anreize für höhere Stromver(sch-)wendung setzen sollte, "wenns grad billigen Strom gibt"....

Ps. Das Video spricht nirgends davon, dass man künstlich den Stromverbrauch steigern soll im Konsumbereich.
Nein, das sage ich nicht. Bitte ließ doch keinen Schrott in das Posting rein. Aber schön, dass du das Video gesehen hsast.

Naja, und hier endet die Diskussion mit dir auch :D Wenn du das wirklich glauben willst, bitte. Da ver(sch-)wende ich meine Zeit nicht länger damit.
Ich weiß auch nicht, ob das einen Sinn hat. Ich meine, vielleicht könnte ich nen ellenlangen Blogeintrag schreiben, in denen alle Abzweigungen abgesteckt sind und ich zwischendurch immer wieder betone, wie sehr mir Effizienzfortschritt am Herz liegt?
(...) Denkt keiner von euch mal weiter als FPS und Benchmarks. (...)
Soll das ein rhetorisches Stilmittel sein? Du hast doch gerade erst mich zitiert, auf den das zutrifft. Und auch jenseits von mir ist der Thread doch voll mit solchen Usern...
...oder passiert dir das gleiche wie Platos?
(...)
Da lobe ich mir die Autoindustrie, all ihre Fortschritte basieren auf eine höhere Effizienz... Klar mit Limits, aber genial. Mein BMW F10 535D hat 299PS, wiegt 2 Tonnen und schluckt ohne Autobahn 6,5 Liter auf 100km. Der E60 535D (direkter Vorgänger) hat 272/286PS, wiegt 1,6 Tonnen und verbraucht 1 Liter mehr... Er ist leichter, hat weniger Leistung und verbraucht trotzdem mehr. Beides 3 Liter bi Turbo Motoren und beides Diesel.
(...)
Die Automobilbranche krebst bei ihren Fortschritten vor sich hin. Man kann froh sein, wenn es nach zwei Jahrzehnten unter vergleichbaren Bedingungen im gleichen Szenario dort überhaupt eine Effizienzverdoppelung gibt.
Dazu kommt noch der Fluch des Festhaltens an Verbrennungsmotoren: Sie sind unvereinbar mit Luxus, siehe hier: https://extreme.pcgameshardware.de/threads/hardwarredaktionen-gebt-intel-und-amd-klare-ansagen.601487/#post-10725370
Die Lektion der ersten Titan, dass die schnellste Karte auch in LowPowerSzenarien überlegen sein sollte, um wirkliches Luxusfeeling zu erzeugen, dass die schnellste Karte auch insgesamt mindestens genauso effizient zu sein hat, ist bei Autos nur mit Verbrennungsmotor kaum zu adaptieren.

Gast
2021-07-11, 17:50:17
"Jetziges Verbrauchs-Niveau ist ertragbar, es darf aber nicht noch mehr werden."

Da muss der Umfragersteller aber noch mal unterteilen in Klasse (mid-end, high-end, enthusiast. Low-end gibt es ja nicht mehr) und AMD oder Nvidia.

Amd Enthusiast (rx 6800xt/rx 6900xt) ist mir mit 300 W noch ertragbar - aber kein Watt höher; undervolte dennoch um 10 %.
Nvidia Enthusiast 320/350 W ist mir nicht mehr ertragbar.

Schnoesel
2021-07-11, 18:11:44
Die 350 Watt meiner Karte sind schon drüber und nur dadurch erträglich, dass ich die Radiatorfläche nochmal um 1/3 vergrößert habe, so wie die Anzahl der Lüfter.

Imo ist das nicht mehr mit Luft leise zu kühlen (wenn es mit den Temps wieder nach oben geht schonmal gar nicht). Aber einige empfinden 2000rpm ja als leise...

Leonidas
2021-07-11, 18:36:50
Da muss der Umfragersteller aber noch mal unterteilen in Klasse (mid-end, high-end, enthusiast. Low-end gibt es ja nicht mehr) und AMD oder Nvidia.

Wäre schön, aber wird in der Praxis zu kleinteilig. Auch die anderen Antwortoptionen könnten das gleiche abfordern.

Gast
2021-07-11, 19:27:50
Klassischer Fall von Selbstbetrug.
Würde man wem aus a oder b 3080 zum Preis der 3060 anbieten, würde zugegriffen und ggf. neues NT gekauft. Rest zur Not via Undervolting.

Summerbreeze
2021-07-12, 09:01:18
Es sollte auch eine AMD-Tabelle geben.
Dito



[X] Jetziges Verbrauchs-Niveau ist schon zu hoch - schaue daher bewusst eine Performance-Klasse tiefer als früher.

Ich habe das angekreuzt, schaue aber grundsätzlich auch, ob sich der Energieverbrauch einer evtl. klassenhöheren Karte mit vergleichsweise einfachen Mitteln, deutlich auf ein angemessenes Niveau reduzieren lässt und trotzdem eine genügend hohe Leistung bereitstellt.
Eine kleinere Karte, welche evtl. am Anschlag läuft ist nicht zwingend die beste Lösung
Mein Maximum liegt eigentlich bei ~200W +-

Bei den aktuellen TDP / TBP Angaben Nvidias >300 - 350W schließe ich sie aber schon von vornherein aus. Allein deswegen, weil ich das Verbrauchsmäßige Auslutschen der Hardware, einzig für die letzten 3-5% nicht unterstütze.
Mit < oder = 300 Watt wären die großen Ampere Karten (Wie z.B bei Igor nachzulesen) kaum langsamer gewesen. Das ist für mich, einfach auch eine psychologisch wichtige Grenze.
Als Nebeneffekt hätte es dann auch (auf breiter Front) keine neuen, eigentlich überdimensionierte und weniger effektive Netzteile geben müssen.
Nicht nur, das durch die Karten an ihrer Leistungsgrenze mehr geschluckt wird, -Nein auch im Desktop / Idle Betrieb erhöht sich dadurch der Verbrauch spürbar.

AMD ist ja nun mit 300W auch nicht SO viel besser, aber immerhin haben sie wohl mal einen Psychologen gefragt oder ganz schlicht, etwas mehr Anstand.

MD_Enigma
2021-07-12, 10:36:07
Ich bin ein großer Freund von: So wenig wie möglich, so viel wie notwendig. Notwendig sind 300W auf keinen Fall und bleibe bei meinen 170-220W. Notfalls warte ich eine Generation, bis das passt.

Mega-Zord
2021-07-12, 10:46:56
Solange der Idle-Verbrauch stimmt, kann die GPU von mir aus 500 Watt ziehen. Aber irgendwo setzt die Kühlung halt Grenzen.

BlacKi
2021-07-12, 12:36:39
*hust* 500w *hust*

https://www.techpowerup.com/gpu-specs/powercolor-r9-295x2.b2907

gabs auch luftgekühlt. https://www.techpowerup.com/201564/powercolor-radeon-r9-295x2-devil13-up-close

mcm wird neue möglichkeiten zwecks kühlung ermöglichen.

Mega-Zord
2021-07-12, 16:54:51
Dann sit doch alles tutti :D

Asaraki
2021-07-12, 17:00:55
Ich bin ein großer Freund von: So wenig wie möglich, so viel wie notwendig. Notwendig sind 300W auf keinen Fall und bleibe bei meinen 170-220W. Notfalls warte ich eine Generation, bis das passt.


Nur zur Einordnung : etwa bei 220 läuft meine 3080 und leistet sehr gute Arbeit. Klar mit UV aber ungefähr dort bewegt sich auch heute der Sweet Spot der größeren Chips

Ist also nicht ganz so schlimm wie man glauben könnte.

hellm
2021-07-12, 20:30:33
Mit den 10xx Geforce Karten konnte man noch relativ sparsame PC's bauen. Mit der 20xx Serie hat sich das schon ein wenig geändert, und mit den 30xx Karten braucht es auch ein Netzteil das nicht einfach abschaltet, weil überfordert.

Trotzdem, in Zeiten, in denen es sog. "Farmen" gibt, in denen Grafikkarten zu Hunderten zusammengerottet zu 97% Unsinn berechnen, tagaus und tagein, sollte man nicht anfangen sich über den den Stromverbrauch der heimischen Daddelkiste Sorgen zu machen.

Die technischen Hintergründe sind schon eher interessant, die Fertigungstechnologien. Heute kaufen wir eigentlich schon stark "übertaktetes" Zeug. Mal sehen wo es mit dem Transistor hinsichtlich der Größe, der Anzahl, der Kühlung und der Leistungsaufnahme noch so hingeht. Ich glaube Chiplets und Kommunikation mit viel Cache stehen an, demnächst wird AMD uns Aldebaran vorstellen.

Fliwatüt
2021-07-13, 05:35:24
Habe hier eine RX580 die um die 200W verbraucht , das finde ich für die gebotene Performance schon ganz schön viel. Beim Kauf habe ich aber nur darauf geachtet das mein Netzteil (500W) nicht überfordert ist.
Ich habe für [X] Jetziges Verbrauchs-Niveau ist schon zu hoch - kaufe aber letztlich trotzdem abgestimmt.
Für mich wäre eine sinnvolle Obergrenze in etwa 250W, könnte aber z.Zt. nicht sagen ob ich mich für eine 6700XT oder 6800 /6800XT entscheiden würde. AMD wegen Adaptive Sync Monitor.


Die sollen lieber mal den Idle-Stromverbrauch bei 3-Monitor-Setups in den Griff bekommen.

Das wäre mir auch sehr wichtig.

Was über 200 Watt verbraucht, kommt mir nicht mehr in den Rechner. Allein schon, weil die Kühlung für solche Karten extrem voluminös ausfallen muss, damit das Ganze am Ende noch leise zu betreiben ist.
Das kostet letztlich nicht nur bei der Stromrechnung, sondern eben auch in der Anschaffung.

Finde ich eine vernünftige Überlegung, Energie- und Ressourcenschonung werden in der Zukunft immer wichtiger und sind z.Zt. viel zu wenig im Focus.

Gast
2021-07-13, 10:52:52
Stufe kleiner? Beim Sprung von wie vielen Generationen? Wenn es nur um 20 auf 30 geht, kann man sich das Upgrade dann sparen. Nur 80Ti zu 80 bringt gegen 20% Mehrverbrauch immerhin 50% mehr Performance. Für 10-20% kauft man doch keine neue Karte. Oder doch?

Bei AMD würde das alles wohl eh 'knittriger' aussehen. Schon bei 2080 zu 3080 vs 2060 zu 3060 ist ersichtlich, dass die Steigerungen sehr ungleichmäßig sind.

Ultron
2021-07-13, 11:57:50
1.) Die Einordnung nur basierend auf dem Namen halte ich für nicht sinnvoll.

Pascal:
Die 1080 Ti war eine 700 Euro Karte und sollte mit der 2080 verglichen werden
Die 1080 war eine 500 Euro Karte so wie die 2070
Die 1070 war eine 400 Euro Karte (2060 Niveau)

Ampere:
Die 3080 gab es bisher nie um 700 Euro und wird jetzt wohl durch die 3080 Ti ersetzt werden.

2.) Wem der Verbrauch zu viel ist, der kann das Powerlimit ja einfach etwas runter stellen.

Eine 380 läuft mit nur 4% Performanceverlust wunderbar mit 50W weniger:
https://www.computerbase.de/2020-09/geforce-rtx-3080-test/6/#abschnitt_rtx_3080_vs_rtx_2080_ti_bei_270_watt

Bei der 3070 Ti sind ganze 70W weniger drin für nur 5% weniger:
https://www.computerbase.de/2021-06/nvidia-geforce-rtx-3070-ti-review-test/4/#abschnitt_rtx_3070_vs_rtx_3070_ti_bei_220_watt



Wieso sollte 4K Gaming nicht existieren? Also ich spiele derzeit mit einem 65" Fernseher als Monitor und da ist Auflösung alles. Dafür opfere. Da schraube ich auch gerne ein paar Effekte zurück, damit ich die Auflösung so hoch wie möglich stellen kann.


Ich habe die 3080 ganz normal für 699€ gekauft. Die Preise sind nur aktuell verzerrt.

Mega-Zord
2021-07-13, 13:10:54
Mit den 10xx Geforce Karten konnte man noch relativ sparsame PC's bauen. Mit der 20xx Serie hat sich das schon ein wenig geändert, und mit den 30xx Karten braucht es auch ein Netzteil das nicht einfach abschaltet, weil überfordert.

Jup, ich sitze hier gerade an meinem Zweitrechner, da der Gaming-PC schon in der neuen Wohnung ist. Das Teil zieht angenehm wenig Strom. Der Xeon 1650v4 (Broadwell-EP) und die 8 RAM-Module bekommen zwar keinen Preis für extremes Umweltbewusstsein, aber die GTX 1080 FE (auf max 0,95 V gedrosselt) schluckt selbst unter Last keine 200 Watt. Im Idele ist die eigentlich immer unter 10 W, was meine 2080 Ti nicht schafft.

hellm
2021-07-13, 20:07:50
^^
Bin von ner 1070Ti auf eine 2080Ti gewechselt, also weiß ich genau wovon du sprichst. Allerdings hat meine Wasserkühlung jetzt wenigstens mal was zu tun.

Und das ist eigentlich für mich auch noch entscheidend beim Rechnerbau, der Kühlaufwand den ich betreiben muss. Die ganzen Watt müssen ja auch wieder aus dem Gehäuse raus. Nur mit Luft ist das jenseits von 300W alles suboptimal.

Gast
2021-07-13, 20:12:21
Eine 560Ti hat 170 W TDP. Eine 480 hat 250 W TDP.
Eine Zeit lang waren die *80 und *70 die top Chips, z.B. 480 war GF100. Ab Kepler verkaufte NVidia den kleinen Chip als *80 und dann war die TDP bei der 680 auf 195W gesunken, was eigentlich eine 660 mit recht viel TDP ist, von daher ist der Vergleich der Marketingnamen nicht sonderlich gut.

Deswegen schlage ich vor 3 Dinge zum besseren Vergleich vor:
1. dass die Chip-Kennungen gleichgestellt werden, nicht die Kartenverkaufsnamen.
2. dass der gleiche Ausbau verglichen wird, z.B. kompletter Chip gegen kompletten Chip, und 1 SM deaktiviert gegen...
3. dass mehr Generationen als Beispiel dienen, schon von der ersten Ferm oder sogar G80i an, weil bis dort hin die Chip-Kennungen sich gleichen.

Sonst beeinflusst der kleine Vergleich schon das Resultat.

Die Preisentwicklung wäre auch nice!

Cyphermaster
2021-07-16, 14:35:51
Trotzdem, in Zeiten, in denen es sog. "Farmen" gibt, in denen Grafikkarten zu Hunderten zusammengerottet zu 97% Unsinn berechnen, tagaus und tagein, sollte man nicht anfangen sich über den den Stromverbrauch der heimischen Daddelkiste Sorgen zu machen.Hunderttausende heimische Daddelkisten machen viele Farmen... :wink:

Ich bin mittlerweile an einem Punkt angekommen, daß ich für mich beschlossen habe, daß meine Netzteilgröße nur noch nach unten geht, d.h. nicht mehr verbraucht wird als jetzt. Umweltschutz/Stromsparen ist da nur ein Aspekt; das ist insgesamt auch kostengünstiger, leiser und besser zu Kühlen. Macht bei gleichbleibend/weniger Stunden vor dem PC und absehbar nicht massiv steigender genutzter Bildschirmauflösung auch einfach Sinn.

HisN
2021-07-16, 14:38:47
Es gibt kein "genug".
Die Gier der Menschheit ist unendlich :-)

E6UuIXWs9EY


Was mein Rechner beim zocken verbrät ist fast schon obzön, und trotzdem will ich nur mehr :-)

https://abload.de/img/stromverbrauch_390w_b9jj3d.jpg (https://abload.de/image.php?img=stromverbrauch_390w_b9jj3d.jpg)

MAX|HASS
2021-07-16, 16:05:38
Ach ja, hisn wieder mit einem seiner obligatorischen Beiträge, der nie ohne einen Schirmschuß daherkommt. Er könnte auch einfach schreiben, ich verbrauche manchmal auch >4500w oder sonstwas, nein, man muß seine Kommandozentrale sehen können, wie auf der Enterprise. Alle sollen seine vielen Kerne sehen, seine Mördergraka und auch die 128gb läßt er sich einblenden, damit er selber nicht eines Tages vergißt, wieviel er eigentlich hat. Lachhaft.

Dazu passen einfach deine Sätze mit Gier, unendlich und natürlich willst du immer nur mehr, is doch klar. Mach doch hin und wieder mal deinen Kasten aus, dann wirst du feststellen, daß schon vor Jahren ein Umdenken stattgefunden hat. Wo? Draußen, in der realen Welt, mußt du mal den Rollladen hochmachen.

Zum Thema: Ich habe auch gedrückt "imho heute schon zu viel Verbrauch", aber letztlich schaufeln die Dinger ja auch genügend Pixel durch den Raum. Prozentual gesehen zu älteren Generationen dürfte man sich dieses Verhältnis wahrscheinlich nicht ansehen, da würden die aktuellen Karten bestimmt schlechter darstehen. Ich hatte vor einiger Zeit bei CP2077 gesehen, wie acht AMD-Kerne mit 3090 in der Spitze über 700w aus der Dose nuckelten, da ist mir ganz schlecht geworden. Als würde man stundenlang seinen Staubsauger auf volle Lotte saugen lassen. Das war der Anlaß, mal zu googeln, was meine alte 1070 so verbraucht und CB attestierte der Karte seinerzeit rund 150w (Gesamtsystem ca. 220w). Das ist schon ein himmelweiter Unterschied und das in so wenigen Jahren. Allerdings eben ohne 4k-Schüssel, ohne HDR, ohne 144hz, ohne raytracing, ohne ohne. Bin voll im Arsch, zocke eben wie 2016 (buuuuuuuuuh!).

BlacKi
2021-07-16, 16:21:59
und der karen award geht an...

ChaosTM
2021-07-16, 17:51:29
Es gibt kein "genug".
Die Gier der Menschheit ist unendlich :-)

https://youtu.be/E6UuIXWs9EY


Was mein Rechner beim zocken verbrät ist fast schon obzön, und trotzdem will ich nur mehr :-)

https://abload.de/img/stromverbrauch_390w_b9jj3d.jpg (https://abload.de/image.php?img=stromverbrauch_390w_b9jj3d.jpg)

Quad SLI war da krank. 20-30% Mehrleistung für Karte 3 und 4. ;)
Das war wirklich dumm.

HisN
2021-07-16, 22:34:22
Und trotzdem wurde es gemacht.

ChaosTM
2021-07-16, 22:49:25
Mehr als 2 Karten hab ich nie benutzt, aber echte Benchmark Freaks kamen daran natürlich nicht vorbei.

Sardaukar.nsn
2021-07-16, 23:27:42
Ich bin da voll auf Hisn Seite. PC und Gaming ist einer der wenigen Hobbys wo die sich jedes Jahr extrem weiterentwickeln. Ich (39) bin damals mit Sim Ant auf 386er, Gameboy und Snake auf dem Nokia aufgewachsen. Lanpartys organisiert und WoW durchgespielt.
Heute lernen meine Kinder eine Maus zu bedienen mit LEGO Builders Journey. Die haben ihren Rätselspaß und ich freue mich an der Raytracing Pracht.

https://i.imgur.com/OAYDr1Z.jpg

Damit diese Reise in den nächsten Jahrzehnten weitergeht brauch es auch Leute wie Hisn die hier und da mal übertreiben, aber die Grenzen weiter voran schieben.

BlacKi
2021-07-16, 23:32:01
zumal das ein worst case war und nicht avg consumption. und dann ist das alles befeuert mit dem deutschen strommix. das kann garnicht so schlimm sein wie z.b. in urlaub zu fliegen.

Gast
2021-08-04, 16:15:08
Die Grafikkarten von Heute schlucken viel zu viel Strom. Früher hatte eine 7950GX2 Dual GPU Karte 110 Watt... Bis 200 Watt total Board Power habe ich es noch akzeptiert, aber jetzt schlucken schon 250-300mm2 GPUs 230 Watt und mehr. 350 Watt ist zu viel für ein Chip.

Bis 200 Watt TDP für Enthusiasten!/High End (350-400mm² DIE Fläche)
Bis 150 Watt TDP für die Performance Klasse (250-350mm²)
Bis 100 Watt TDP für die Mittel klasse (150-250mm²)
Bis 50 Watt dann Low End Klasse

Warum muss das alles so ausarten. Ich betreibe meine RX 5700XT UV mit 90 Watt TDP (50% des original Zustand). Es ist genug Leistung damit vorhanden... Statt 1,9 GHz (180 Watt TDP) sind es 1,45 GHz (90 Watt). Ich spiele in 4K und das mit ansprechender Grafik und guten Details... Muss es Ultra Details sein... Muss ein Spiel so schlecht optimiert sein das eine 350 Watt Karte gerade so 60FPS schafft in 4K...

Das ist ein Rattenschwanz... Die Entwickler sehen oh ich muss nicht optimieren, weil PC Spieler eh aufrüsten. Die PC Hersteller machen immer weniger Fortschritte in der Architektur Effizienz, weil der Konsument schon bereit ist 350 Watt GPUs zu kaufen.

Nur so als Tipp:
Meine RX 5700XT liefert mit 90 Watt TDP fast 1,5 GHz.
Mit den 180 Watt sind es nur maximal 1,95 GHz.. Quasi für 25% mehr Takt einfach 100% mehr Strom.

Seit ihr echt bereit heiße, laute, stromhungrige GPUs mit kurzer Lebensdauer zu wollen für nur knapp 20% Mehr Leistung... Denkt keiner an die Umwelt, das Stromnetz und die Kosten? Wisst ihr das für Silizium spezieller Sand benötigt wird. Meeres sand um genau zu sein. Es wurde mal gezeigt wie viel Korallen dafür drauf gehen damit ihr jedes Jahr ein neues Handy und PC Grafikkarte kaufen könnt. Deshalb kaufe ich mir frühestens alle 4 Jahre eine neue Grafikkarte... Eher später. Wie gesagt muss keine Grafikkarte 800mm² groß sein und 350-450 Watt schlucken...

Wie beim Auto, wo der Staat den Herstellern vorgibt was für ein Verbrauch und Ausstoß der Wagen haben darf, so befürworte ich auch das GPU Herstellern Grenzen gesetzt werden. Was kommt dann in 5 Jahren eine 250-300mm2 GPU ala RTX 5070 mit 500 Watt TDP...

So sehe ich das mittlerweile bei den Unmengen an Speicherplatz, den die Spiele nutzen.

Benutzername
2021-08-04, 16:45:19
Nur zur Einordnung : etwa bei 220 läuft meine 3080 und leistet sehr gute Arbeit. Klar mit UV aber ungefähr dort bewegt sich auch heute der Sweet Spot der größeren Chips

Ist also nicht ganz so schlimm wie man glauben könnte.

Ja, aber so werden die Karten nicht ausgeliefert obwohl man ja kaum FPS verlieren würde. Aus der Fabrik kommen die konfiguriert um den letzen FPS aus den Chips zu quetschen, egal was das an Watt kostet. Aber die Verkäufe geben den Herstellern recht und wenn einer auschscherte hagelte es beschwerden bzw. niedrigere Verkäufe, falls eine Graka auf effizient und leise getrimmt wäre. :frown:

Loeschzwerg
2021-08-04, 17:00:49
Es ist letztendlich nicht nur die gesteigerte Leistungsaufnahme, auch der Preis rückt mittlerweile in Höhen dass es nicht mehr feierlich ist.
Gepaart mit der allgemein schlechten Verfügbarkeit und aktuell nicht vorhanden sein der Mittelklasse => Da ist man mit einer Konsole zigmal besser bedient. Man wartet zwar evtl. etwas, bekommt dann aber zur UVP extrem viel geboten.

Gast
2021-08-04, 17:20:43
Ich behaupte weiterhin, dass die meisten bei entsprechendem Preis oder P/L höheren Stromverbrauch in Kauf nehmen.
Klar hat das Limits. Die Wärme muss ja irgendwie aus dem Gehäuse und dann aus der Umgebung. Leistungsstärkere PSU dürfte das kleinere Problem sein.

Zumal die Betrachtung vom Standpunkt abhängt. Wer Mainstream kauft, hat mit der Steigerung wohl weniger Probleme als weiter oben.

Viel problematischer sind die tangential erwähnten Preissteigerungen. Die z.T. auch mit der Wattage zusammenhängen. "Gaming"-Pre-Builds werden weniger zulegen als bisher, denn PSUs und Kühlung müssen zulegen - treibt den Preis und das geht in dem Segment nicht.

iamthebear
2021-08-04, 21:59:53
1.) Wenn man einmal von der aktuellen Miningsituation absieht sehe ich das so. dass die Hersteller hier lediglich das Portfolio nach oben hin erweitert haben.

Es ist keiner gezwungen ständig die neues Karten im 1K Euro bzw. 600mm² Bereich zu kaufen. Es gab z.B. bei Turing mit der GTX 1650 auch eine günstige und stromsparende Karte im 200mm² Bereich. Dass das Ding natürlich langsamer ist als die 600mm² Modelle ist klar aber man kann damit alle aktuellen Spiele mit den grafischen Details spielen, mit dem man das früher auch konnte. Der Button im Einstellungsmenü heißt nun vielleicht "Low" statt "Very High" aber es sieht immer noch besser aus als früher und die Auflösung ist vielleicht 1366x768 statt 1280x1024 da der Monitor nun 16:9 hat aber sonst ist alles beim Alten.
In den meisten Fällen word man sogar mit einer neuen Karte auf Mittel und 1080p raufstellen können.

Dass es nicht wie früher im Schnitt alle 1-2 Jahre eine Verdopplung der Leistung gibt liegt einfach daran, dass die Entwicklung in der Fertigung nun deutlich langsamer voran geht (nicht von den nm Marketingangaben verwirren lassen).

2.) Auch wenn hier so gut wie alle der Meinung sind, dass der Verbrauch zu hoch ist: 90%+ der Käufer kaufen ausschließlich nach Benchmarkbalken. Die schauen nicht einmal auf die Verlustleistung.
Und einmal ehrlich: Was wäre mit AMD passiert wie sie die 6700 XT zum selben UVP zwischen 3060 Ti und 3060 mit 150W gelauncht hätten? Die wären komplett zur Sau gemacht worden. So wird es als gute Karte angesehen. Verlustleistung ist ein Tiebreaker bei der Kaufentscheidung aber nicht viel mehr.
Die Verlustleistung wird aus Sicht der Hersteller erst dann ein Problem wenn die Kosten für die Kühlung den Preis so treiben, dass es sinnvoller wäre die Leistung durch andere Maßnahmen zu holen.

OpenVMSwartoll
2021-08-05, 00:40:36
So unterschiedlich sind die Wahrnehmungen.

Stimme zu, dass die Preissteigerungen und der Stromverbrauch extrem abtörnen.

Man stellt alles auf stromsparend um und gleicht das dann durch ein Heizkraftwerk aus? Macht keinen Sinn.

Loeschzwerg
2021-08-05, 06:30:07
Es gab z.B. bei Turing mit der GTX 1650 auch eine günstige und stromsparende Karte im 200mm² Bereich.

Wird Zeit dass diese Kategorie von Karten endlich für die aktuelle Generation erscheinen

Gast
2021-08-05, 08:39:10
So sehe ich das mittlerweile bei den Unmengen an Speicherplatz, den die Spiele nutzen.

Auch heute noch ist die Grafikqualität sehr wesentlich von der Textur- und Polygonauflösung sowie von deren Vielseitigkeit abhängig, und das benötigt nun mal Speicherplatz.

Also von mir aus können sollen Spiele so viel Speicherplatz wie es nur irgendwie geht verwenden, weil das auch bedeutet dass sie viele und hochqualitative Assets verwenden.

Wobei das Problem weniger der Speicherplatz ist, sondern dass jemand diese Assets auch erstellen muss.

necro1970
2021-08-05, 13:21:38
Hmmm, irgendwie erschliesst sich mir der Kern der ganzen Bedenken nicht.

Denn es ist doch so: Zu aller erst wählt man die Displays für die eigene Physis, Bedürfnisse, Vorlieben,örtlichen Gegebenheiten und verwendete Software - Produktiv wie Spiele.
1,2,3,4 Stück, normal, Ultrawide,vertikal,wallmount, VA/TN/IPS/OLED, Größe, Refreshrate und Auflösung - je nachdem.

DANN sucht man die dazu nötige/passende Grafikkarte/n, auch im Fall das man schon Displays hat, und natürlich auch, wieviel Leistungsreserven nach oben man will/braucht.

DANN geht man eventuell die Schleife nochmal zurück (eine Stufe Auflösung höher oder tiefer, ein Display mehr oder weniger, ein Kompromiß hier oder da) - und bekommt so ein ideales Match.
Unmengen an Reviews oder Tabellen/Übersichten wie hier auf 3DC helfen einem sehr einfach zu sehen, wo welches Monitor/Karten-Match endet. Und DANN kauft man.
Um auch nachhaltig zu kaufen - und nicht nach der ersten Stunde vor dem "neuen" PC festzustellen, dass das Upgrade eigentlich ein Downgrade war.

Dass eine 3090 für 3x 4k 120hz Monitore bei weitem zu wenig ist,
genauso wie eine 3070 für 1x 1080p 60Hz Monitor zu viel - alles reine Mathematik.

Macht man das vernünftig, sieht die Realität dann so aus:
Man stellt den Framerate Limiter auf die Refreshrate des Panels ein,
nach unten hin macht GSyn/Freesync den Rest.
Und ja - wer seine Karte mit 3000+ FPS und voller Last/TDP im Startmenü dahinbrüllen lässt - der hat grundsätzlich so einiges nicht ganz verstanden.

Sehr anspruchsvolle Applikationen/Spiele haben (jetzt erstmals, endlich) die nötige Power, um ordentlich zu laufen. Wo die 3070 zuwenig ist, nehme ich die 3090. Und es ist nichtmal eine Handvoll Dinge, wo die 3090 am Maximum läuft - also noch genug Reserven für Zukünftiges.

Weniger anspruchsvolle Applikationen/Spiele, auch durchaus aktuelle, lassen die 2 nur moderat belastet laufen. Ergo auch: NICHT mit der vollen TDP!

Etwas ältere Spiele laufen wie angetackert auf 144 oder 165 Hz, butterchremig, mit perfekten Frametimes, und brauchen teils sowenig GPU Power dass die Lüfter der Karten stehen, da unter 55°, wenig GPU Takt und vielleicht gerade mal 10-20% GPU Last.
Und dafür braucht es oft weniger als 100W.

Während hingegen meine alte 1070 im genau demselben Szenario keine 144 oder 165FPS schafft, dafür Mikroruckler/keine schönen Frametimes hat, und mit hoher Last, Takt, Temperatur und fast voll drehenden Lüftern ihre 170W aus der Steckdose saugt.

Also ehrlich - genau so sollte es doch sein, und die Verbesserungen/Effizienzsteigerungen über die Jahre sind eine tolle Sache. Was nun genau ist daran verkehrt?

Denn was vor 4 Jahren gut war, ist es jetzt evtl. nicht mehr.
Die 1070 ist zuwenig für meine aktuell benötigten 1x 1440p + 1x 3440x1400p, und beim von mir durchschnittlich verwendeten an Software ineffizient, heiß und stromhungrig, da sie fast immer am Anschlag läuft und im vollen 170W TDP Limit hängt (nicht 150, da ein OC Modell).

Deswegen ist sie in den PC meiner Frau gewandert, wo sie bei 1x 1080p im Desktop Betrieb und casual games noch etliche Jahre lang einen tollen (und dort auch meist lüfterlos laufenden) Job machen wird...das ist am Ende auch die wahre Bedeutung von Nachhaltigkeit - nicht wegwerfen oder verkaufen - sondern verwenden. So verschwindet auch jedweder Kaufpreis in die Bedeutungslosigkeit.

Und wenn jemand für seine professionelle Tätigkeit mit 3 Quadro Karten leistungstechnisch gerade mal so das Auslangen findet....
Ist gewiß das allerletzte was es braucht, eine EU Richtlinie wieviel Watt welches PC Teil haben darf - so ein großes Kopf-klatsch-gif oder emoji, dass es für so eine hirnverbrannte Idee bräuchte, gibt es noch gar nicht.

Sondern viel dringender die nächsten Generationen, wo er dann evtl. mit 2 Quadro Karten bei insgesamt gleichem Stromverbrauch mehr Leistung hat als jetzt, und seine Arbeit schneller/besser erledigen kann.
Denn die Rückkehr ans stromlose Reissbrett wird irgendwie, anno 2021, genausowenig klappen wie wenn Bauarbeiter mit Knochen und Steinäxten aus dem Paläolithikum an der Baustelle auftauchen....
Meine (traurige) Coclusio über die Jahrzehnte: es gab in der Menschheitsgeschichte noch nie soviel Wissen wie zum jetzigen Zeitpunk, Tendenz in Wissenschaft und Technik steigend - und reziprok dazu wurde von der Allgemeinheit noch nie so wenig davon verwendet, als jetzt :-(

Elite_Warrior
2021-08-05, 15:08:49
Im Großen und Ganzen ist mir der Verbrauch nicht so wichtig, aber selber betreibe ich meine Grakas nach Möglichkeit im Sweetspot oder gar etwas drunter.
Denke ich da an meine Vega 56 mit UV und der neuen 6700XT bewege ich mich doch wohl im Bereich 170-220W. Gekauft eher nach Preis. Reicht mir auch. Darüber habe ich weniger Bock im Sommer. Im Winter ist es mir schnuppe aber die Effizienz nehme ich günstig mit.

MAX|HASS
2021-08-05, 17:23:58
Hmmm, irgendwie erschliesst sich mir der Kern der ganzen Bedenken nicht.

[...]

Also ehrlich - genau so sollte es doch sein, und die Verbesserungen/Effizienzsteigerungen über die Jahre sind eine tolle Sache. Was nun genau ist daran verkehrt?

So wie du das erzählst, ist daran nichts verkehrt. Du scheinst von Zeit zu Zeit aber wohl in einem Szenario zu stecken, wo weder deine TFT-Größe noch ein Spiel die Karte arg in Anspruch nehmen und hier weiß ich nicht, ob das der Regelfall ist. In diesem dürfte die Karte sehr wohl an eine große Schüssel gekoppelt sein und es laufen aufwendigere Spiele, mit maximalen Optionen.

Ich fand deinen Text eigentlich sehr neutral geschrieben, nur störte mich ein bisschen, daß die 3090 hier als die eigentlich vernünftige Alternative umschrieben war. Ich habe auch eine 1070 (siehe weiter oben, kein OC-Modell, 150w) und auch wenn du in bestimmten Fällen diesen Verbrauch mit der 3090 noch um 50w unterbieten kannst, steht dem noch ein Kaufpreis gegenüber, der schon zum Release mit 1499€ fast siebenmal so hoch war wie bei meiner immerhin neu erstandenen Karte: 219€. Sich hier irgendwie über eine Zeitspanne die Verbräuche gesundzurechnen.., so lange spiele wir beide glaube ich nicht mehr. :redface:

Das Ergo müßte anders lauten: wer mehr will, muß mehr löhnen. Auch siehe oben, ich kann nicht mit HDR, 144hz, RT, 4k und all dem Gedöns spielen. Wollte ich das, müßte ich richtig Knatter auf den Tisch legen. So ist mein Anwendungsszenario nicht das richtige für die Notwendigkeit einer 3090 und deines wahrscheinlich nicht für eine alte 1070. Da den Hebel über den Verbrauch anlegen zu wollen, läßt beide Karten nur eines: schlecht aussehen. Und das ändert sich ja auch noch, wenn du die PillePalle-Spiele ausmachst und mal in neueres wie CP reingucken willst, da verlassen wir die 100w auch ganz schnell wieder.

Nu komme ich noch um die Ecke und sage, ich habe meine 1070 sogar schon 30 Monate, was einen umgerechneten Aufwand von unter 8€/Monat Stand heute entspräche und du entgegnest mir, dafür bekommst du in einem Jahr aber auch noch (keine Ahnung) 500€ für deine Karte. Die derzeitige Situation mal außen vor gelassen. Jedenfalls kann man rumrechnen, wie man will, die beiden lassen sich eigentlich nicht gut vergleichen.

necro1970
2021-08-06, 00:50:02
So wie du das erzählst, ist daran nichts verkehrt. Du scheinst von Zeit zu Zeit aber wohl in einem Szenario zu stecken, wo weder deine TFT-Größe noch ein Spiel die Karte arg in Anspruch nehmen und hier weiß ich nicht, ob das der Regelfall ist. In diesem dürfte die Karte sehr wohl an eine große Schüssel gekoppelt sein und es laufen aufwendigere Spiele, mit maximalen Optionen.

Ich fand deinen Text eigentlich sehr neutral geschrieben, nur störte mich ein bisschen, daß die 3090 hier als die eigentlich vernünftige Alternative umschrieben war. Ich habe auch eine 1070 (siehe weiter oben, kein OC-Modell, 150w) und auch wenn du in bestimmten Fällen diesen Verbrauch mit der 3090 noch um 50w unterbieten kannst, steht dem noch ein Kaufpreis gegenüber, der schon zum Release mit 1499€ fast siebenmal so hoch war wie bei meiner immerhin neu erstandenen Karte: 219€. Sich hier irgendwie über eine Zeitspanne die Verbräuche gesundzurechnen.., so lange spiele wir beide glaube ich nicht mehr. :redface:

Das Ergo müßte anders lauten: wer mehr will, muß mehr löhnen. Auch siehe oben, ich kann nicht mit HDR, 144hz, RT, 4k und all dem Gedöns spielen. Wollte ich das, müßte ich richtig Knatter auf den Tisch legen. So ist mein Anwendungsszenario nicht das richtige für die Notwendigkeit einer 3090 und deines wahrscheinlich nicht für eine alte 1070. Da den Hebel über den Verbrauch anlegen zu wollen, läßt beide Karten nur eines: schlecht aussehen. Und das ändert sich ja auch noch, wenn du die PillePalle-Spiele ausmachst und mal in neueres wie CP reingucken willst, da verlassen wir die 100w auch ganz schnell wieder.

Nu komme ich noch um die Ecke und sage, ich habe meine 1070 sogar schon 30 Monate, was einen umgerechneten Aufwand von unter 8€/Monat Stand heute entspräche und du entgegnest mir, dafür bekommst du in einem Jahr aber auch noch (keine Ahnung) 500€ für deine Karte. Die derzeitige Situation mal außen vor gelassen. Jedenfalls kann man rumrechnen, wie man will, die beiden lassen sich eigentlich nicht gut vergleichen.

Worum es mir wirklich geht: es wird (wohl oder übel) immer weiter vorwärts gehen. Und sei es z.B. für Großrechner im wissenschaftlichen Bereich (Wetter, Molekularsimulationen etc.) - wo ein 10 Jahre alter Supercomputer heute auch nicht mehr wirklich zu gebrauchen ist, und immer stärkere GPUs Mittel der Wahl sind.
Ich hab meine zweite 3D Karte anno 1998 (3dfx Vodoo 2) als Deko an der Wand hängen. Da meine erste (3dfx Vodoo) verloren ging. :D
Sie geht noch, aber der letzte PCI Slot Rechner ist schon lange weg, und die 8MB VRAM, naja....
Die 8GB der 1070 werden auch mal genauso alt aussehen, wenn dann 8TB VRAM gerade aktuell sein werden...

Das Zockertechnische und Preisliche...also ich seh's entspannt.
So wie der letzte Wagen ein Kombi ist, hat auch das letzte Hemd keine Taschen - und was ein Hobby ist, soll primär Spaß machen, und keine (ständige) Kosten/Nutzenanalyse sein. Da macht ja Arbeiten sogar mehr Spaß.
Denn wie auch schon oft hier gekommen - andere Hobbyisten schmunzeln über die Beträge, die hier für Raunen sorgen.

Ja, mea culpa, bin eben "so einer".
Zudem, ja natürlich: willst du mehr, zahlst du mehr. (Gegenfrage: wo nicht?)
Das meinte ich mit: zuerst Display, Zweck/Wunsch - dann Karte.
Oder eben Kompromiß, wenn es sich nicht anders ausgeht.

Aber ehrlich, selbst wenn es einem egal ist - es relativiert sich wirklich...
Meine Asus Strix 1070OC ging damals für 500€ über die Theke - im Sommer 2016. Sie steht also bei 120 Monaten, 4,16€/Monat, und wird wie beschrieben noch länger gut laufen. Wo landen wir dann, wenn sie mal wirlich ex geht - bei 2, 3€/Monat?
Meine monatliche Spende an das Rote Kreuz macht ein Vielfaches mehr aus...

Aber wenn eben Upgrade, dann Klotzen statt kleckern, und die Generation war es mir eben wert. Wobei man sich dafür in der jetzigen Zeit beinahe schon entschuldigen muss.... *lol*
Die 1900€ RRP der Strix 3090OC (nicht die 1500€ FE Sparversion), ca. das Doppelt IRL - nicht vernünftig, aber drauf gepfiffen. Tut alles was ich will und noch mehr, und wird es noch lange.
Und ja, sie tut es (bei 1:1 demselben Game) effizienter als die 1070.
Also wirklich spürbar - aber wieviel %, ist mir ehrlich egal.
Die 2 3070er für die anderen PCs - sinnvoller, aber da stehen eben kleinere Displays/Auflösungen.
Bei neuen Krachern + RT reichen die standard 390W TDP (statt 350 FE) für alles in 1440p Ultrawide, super Framerates, cremig und ohne Ruckler + zweiter Monitor für Karten/YT/Monitoring, alt wie neu, und die 480W im OC Mode (ohne löten) sind ja auch noch da. Bin restlos happy - mission accomplished.

Und ja - ich freu mich schon auf 4090 und 5090 (oder dem dann dazu passenden Radeon Pendant) - trotzdem bleiben die Karten, denn irgendwas ist immer, irgendwer braucht immer einen Rechner, oder ich stelle aus nicht mehr genutzen Teilen einen kompletten + Peripherie zusammen und bringe ihn ins als Spende ins Sozialkaufhaus oder das Kinderheim in der Nähe...beide brauchen ständig Geräte für Kids die es im Leben nicht so gut erwischt haben, und für Schulzwecke&casual Spiel sind die immer tiptop. Wie auch meine Laptops, letztens einen 5 Jahre alten i5 mit SSD, aber integrierter Grafik - selbes Procedere, für meine Zwecke inzwischen zu langsam, für das Erstklässler Mädel im Kinderheim eine Offenbarung.
Wie gesagt, wegwerfen (außer, wenn wirklich unreparierbar defekt) und verkaufen (außer für Sammlerstücke/Raritäten/Kunst) sind für mich keine Optionen.

MAX|HASS
2021-08-06, 10:17:35
Entschuldigen für die Karte muß sich niemand und ich finde sie auch nicht per se unsinnig. Auf dieser Welt darf solange hergestellt und verkauft werden, was niemanden unmittelbar schadet und von mir aus nicht illegal ist. Und gäbe es keine 3090, wäre damit noch kein Baum gerettet. Im Gegenteil, die Masse an Mittelklasse-Karten der großen Hersteller saugt jeden Tag wahrscheinlich 20x so viel aus den Dosen wie alle verkauften 3090 zusammen. Und noch mehr.

Nichtsdestotrotz kann man ja den Wunsch äußern, daß folgende Generationen wieder ein bisschen eingebremst werden, was den Stromverbrauch betrifft. Aber damit bekommt man u.U. nicht den längsten Balken und daher ist das nicht oberste Priorität (und allein hier in so Nischen-Foren der Interessierten wird man mir für solche Aussagen den Scheibenwischer zeigen).

Und du bist auch nicht verrückt, nur weil du mit der Zeit gegangen bist und was neues angeschafft hast, sondern das ist der momentan normale Gang. User wie ich haben bloß das "Glück", noch etwas effizienter zu fahren. Meine Kiste ist aus 2015 (Vierkerner, 1070, 1080p) und wenn ich jetzt was aktuelles kaufen wollte, würde ich damit meinen Verbrauch unweigerlich mindestens verdoppeln. Dazu brauche ich keine 3090, hier würde ein Achtkerner und ne 3070 schon ausreichen (von derzeit rund 220w auf dann vielleicht 500w). Das ist einfach so, weil sich weder aktuelle GPUs noch CPUs sonderlich zurückhalten.

Halten wir uns also nicht speziell an deinem Modell fest, der Verbrauch ist auch bei den kleineren Brüdern gestiegen und hier habe ich zu wenig den Überblick, ob der Anstieg als normal angesehen werden kann, damit eine neue Generation auch was vorzuweisen hat oder ob die Chips schon nahe der Kotzgrenze laufen, um noch 10% mehr rauszukitzeln. Ich als Laie sehe bloß, daß aktuelle Rechner wie gesagt unter Nutzung von allem technischem Schnickschnack teils mehr als das dreifache verbrauchen wie meine alte Kiste und denke mir, man gut, daß immer noch alles mit 60fps läuft und verwerfe den Gedanken immer wieder auf's Neue, langsam mal umzusteigen. Wobei da ehrlicherweise auch die altersbedingte Faulheit mit reinspielt, sich diesem Kauf-, Bastel- und Neueinrichtungsprozeß zu unterwerfen, das wäre mir mit 20 wahrscheinlich nicht passiert, 6 Jahre mit einem Rechner zu verbringen. Nö, läuft, machen wir nächstes Jahr. Auf der anderen Seite waren zu der Zeit, wo ich 20 war, auch die Sprünge so groß, daß man teils auch nach 2 Jahren echt mal Hand anlegen mußte, damit neue Spiele auch wie neu liefen.

necro1970
2021-08-06, 13:52:11
Hehe, ja auf alle Fälle, in den späten 80igern/frühen 90igern waren die Sprünge, oft nach kurzer Zeit, teils extrem...und im Endeffekt teurer als heute (teils was es kostete, wie auch durch das öftere Upgraden).
Seit den 2000ern ist es dahingehend humaner geworden, und man kann die Kisten durchaus richtig lange verwenden (wie beschrieben zuerst als Highend, bis zum Schluß als Desktoprechner für den Alltag).
Aber der Verbrauch stieg stetig - und solange die Halbleitertechnik (im Grundprinzip) diesselbe bleibt, wird das (trotz 1000er Kniffe und Designverbesserungen) so bleiben.

Die interessante Frage die Du, wie viele andere, im Grunde stellst, ist: Braucht es überhaupt ständig mehr?
Tja, gute Frage. So wie mein Upgrade lief: auf alle Fälle.
Aber darüber hinaus, und da bin ich bei Dir: "eigentlich" nein.

Wer hat so gute Augen, bis auf die Jungspunde, irgendeinen Unterschied zwischen 4k und 8k zu sehen?
Wozu also Karten, die sowas antreiben können?
Und noch viele Fragen in der Richtung mehr.

Auch und gerade AAA Spiele werden zwar immer aufwendiger, oft bieten aber alte Titel weit besseres Gameplay/Langzeitmotivation. Nur weil es toll aussieht, muss es nicht toll sein... ;-)
Die Spieleindustrie wird natürlich, so oder so, ja sagen - sie lebt ja davon, immer wieder was Neues zu verkaufen.
Ein fixer Treiber - aber den größeren Treiber sehe ich wirklich auf der Seite Wissenschaft/Industrie.

Automatisierte Fertigung und Qualitätskontrolle, div. KI Anwendungen, Wetter/Molekular/was auch immer-Simulationen, denk an Anwendungen wie autonomes Autofahren usw.
Die treiben ja genauso die CPU Seite. Wo die wirklich großen Server/Workstation CPUs ja inzwischen auch schon heftige Wattagen haben.

Andererseits: kannst du dir heute als Privater, wenn du es brauchst/willst/kannst, einen Ryzen Threadripper mit 64cores/128threads daheim hinstellen.
Und Programme verwenden, die das auch ausnutzen können.
Hättest du das jemand vor 10 Jahren erzählt....jeder hätte dir einen Vogel gezeigt.
Mit den Worten: "So ein Spinner, unmöglich. Außerdem: mehr als 4 Kerne braucht niemand".
Tja....wie man sich, in jeder Hinsicht, mal ordentlich täuschen kann.... :D
Und auch wenn ich glaube, das mit den nächsten 2 Kartengenerationen das für mich "sinnvolle Endgame", gewiss auch display seitig erreicht ist
(also 3x 4k OLED 240Hz Displays, die auch mit entsprechend hohen Framerates betreibbar sind - mehr kann man doch nicht wollen. Oder?).....
wird man in 10 Jahren über so eine Meinung anno 2021 wahrscheinlich auch nur milde lächeln.
Wo es dann Nano-Plasma mit "unbegrenzter" Auflösung oder was weiß ich was geben wird.
So wie über die 8MB VRAM der erwähnten 1998'er Voodoo2. 8MB..Alter Skandinavier! Heute hat ein BIOS schon mehr Kapazität :D

Jaja, der liebe Forschritt...Fluch oder Segen - lassen wir uns überraschen. Ist ja nicht nur am PC Sektor so... ;-)

MiamiNice
2021-08-06, 15:16:33
Sorry Boys, aber wenn ich das hier so lese, bekomme ich den Eindruck hier schreiben Omi und Opi, die früher mal HW Nerds waren und sich über die junge Generation auslassen - weil sie nichts besseres zu tun haben.

Ich habe es nicht ganz gelesen - aber falls es noch niemand geschrieben hat - rechnet euch doch mal den Stromverbrauch eines 300Watt PC und einem 700Watt PC auf das Jahr gesehen aus.

Protip:

Man kann im Haushalt oder am Auto oder an jeder anderen Ecke des Lebsns super easy mehr Geld sparen als eine 3090 im Jahr an Strom kostet.
Diese ganze Diskussion ist so dermaßen lächerlich das ich fast vom Stuhl falle weil mein Zwerchfell wie verrückt pulsiert ;D

Von daher -> Wann ist es genug beim Grafikkarten-Stromverbrauch? -> Noch ganz lange nicht und es ist auch nicht nötig.

Grüße

MAX|HASS
2021-08-06, 16:19:04
Von daher -> Wann ist es genug beim Grafikkarten-Stromverbrauch? -> Noch ganz lange nicht und es ist auch nicht nötig.Grüße

Protip: https://www.youtube.com/watch?v=dzb8SdJIuTs

Seit wann unterhält man sich über den Verbrauch von Hardware und fällt dann aber in's Wort mit dem Einwand, bei einem anderen Gut wie dem Auto ließe sich ungleich mehr einsparen? Gibt es da bei dir auch mehrere Kategorien? Demnach müßte man ja einem S-Klasse-Fahrer auch eine Karte mit 2000w verkaufen können, er merkt das ja kaum oder?

Es geht hier um den Verbrauch von Grafikkarten, nicht um den Haushalt oder um Autos. Im Umkehrschluß vielleicht auch um die Frage, ob es in Zukunft möglich sein wird, überhaupt dieses Energieniveau zu halten oder ob moderne Spiele, große Pixelmengen und allen zuvor von mir genannten Begleiterscheinungen dazu führen werden, daß bei gleichen Herstellungsverfahren immer mehr Aufwand betrieben werden muß, um spielbare fps zu erzeugen. Nun kann zB. nvidia nichts dafür, daß die ersten Hersteller schon Displays in Aussicht stellen, die bald mit einer 3 vorne bei den hz-Zahlen erscheinen. Wer die fahren will, braucht keine 3060 zu kaufen, aber dennoch kann man sich doch anschauen, welche Richtung generell das Energieniveau nimmt.

Deiner Logik nach wäre es doch vorteilhafter, wenn man sich nach seiner Konfirmation umbringt. Dieser Zeitpunkt sollte noch vor dem ersten richtigen Rechner, dem ersten eigenen Auto und Haushalt liegen, sodaß hier das Einsparpotential nicht ermeßbar groß ist. Kann man einfach nicht beziffern, weswegen ich dich fragen möchte: sicher, daß dein Zwerchfell pulsiert hat und nicht die Murmel auf deinem Hals? :P

OpenVMSwartoll
2021-08-06, 18:55:03
Sorry Boys, aber wenn ich das hier so lese, bekomme ich den Eindruck hier schreiben Omi und Opi, die früher mal HW Nerds waren und sich über die junge Generation auslassen - weil sie nichts besseres zu tun haben.

[...]

Von daher -> Wann ist es genug beim Grafikkarten-Stromverbrauch? -> Noch ganz lange nicht und es ist auch nicht nötig.

Grüße

Nunja, mal abgesehen davon, dass ich den Eindruck habe, dass Du gar nicht so jugendlich bist, wie Du Dich wähnst...

Die "Dinos" haben auch wahrscheinlich schon mehr vergessen, als Du je lernen wirst.

Aber sei's drum: Lebenserfahrung lässt einen manchmal das Gesamtbild besser sehen.

Und ist es nicht gerade die junge Generation, die fordert, alles zu tun, um "das Klima zu retten"? Gut, das Klima braucht uns nicht zur Existenz. Und der Fußabdruck dieser konsumgeilen Generation übersteigt unseren dann doch oftmals.

Aber die Summe kann den Unterschied ausmachen zwischen "Du darfst die Waschmaschine nur noch zwischen 2 und 3 Uhr nachts betreiben" und einer gesicherten Stromversorgung, wenn man primär erneuerbare Energien nutzt.

Irgendwann ist höher, schneller, weiter einfach nicht mehr das Ideal im Leben.

Loeschzwerg
2021-08-06, 18:58:15
Nicht trollen lassen ;) Kind bleibt Kind.

MAX|HASS
2021-08-06, 20:11:23
Ja was denn nun? Kind oder nicht Kind? Ich kenne ihn ja nicht, ist er im Kopf noch Kind, aber die Hülle schlägt schon Falten oder wie? :biggrin:

Im Grunde geht's mir auch nicht speziell nur um das eine Bauteil Grafikkarte an sich, sondern um den gesamten input, den ein moderner PC mittlerweile verlangt. Und dafür ist immer noch mein CP2077-Erlebnis von vor ein paar Monaten verantwortlich (hatte den Schirmschuß hier mal irgendwo gepostet), wo ich sah, wie da jemand um die 700w aus der Wand zog. Ich konnte erst gar nicht glauben, wo sich das in der Spitze hinentwicklet hat, weil ich mir die letzten Jahre kaum noch neue Hardware angesehen habe. Weckt eh nur Begehrlichkeiten, also kurz mal review überflogen, woohooo, is' die schnell und wieder zu.

Ich mußte das dann natürlich etwas einsortieren, weil ich von einem Mittelklasse-Rechner hochgucke zu Highend-Hardware, logisch, daß die weitaus mehr verbraucht. Ich hatte aber auch schon meine Momente, wo ich mir vor Augen führte, daß eine PS5 bis zu 200w verbraucht und die Series X leicht darüber lag und die Spiele lassen sich für meine Belange ebensogut durchspielen wie an der Desktop-Kiste hier. Da war ich schon manches Mal davor, den PC nur noch zum surfen zu nehmen und Spiele auf einer Konsole zu spielen. Wenn ich mich da nicht selber zigfach in den Arsch beißen und über meinen Schatten springen müßte, habe ich doch 20 Jahre lang von Klimperkästen geredet und gewettert.. Nein, passieren wird das wahrscheinlich nicht, zu sehr mag ich ja die Vorteile am PC (und ANNO!!!!). Aber trotzdem, das Ökosystem Konsole ist nicht nur des Preises wegen etwas näher an mich rangerückt.

@OpenVMSwartoll: Ich habe jetzt ne Vier vorne, klar sieht man da einige Dinge anders. Zu 50% ist es aber auch einfach so, daß der PC schon länger als ein Jahrzehnt nicht mehr die große Rolle spielt im Leben. Heute noch Zeitvertreib, früher und vor allem ganz früher doch zentrale Rolle, gerade als das Internet neu war. Da wurde auch schon mal die Freundin versetzt, um mit Kumpels zu zocken, Bier zu saufen und Döner zu fressen. Ja, man muß es so sagen :wink:. Daher ist es mir schon wichtig, daß das Ding nicht irgendwann vierstellige Zahlen aufruft und das auch, obwohl wahrscheinlich alle PCs, Spiele-Laptops etc. in Deutschland nur für einen klitzekleinen Anteil des Stromverbrauchs verantwortlich sind. Es gibt ja Fabriken, die brauchen so viel Energie wie meine Heimatstadt mit 100k Einwohnern. Aber trotzdem, für mich ist es ein Unterschied, ob mein PC mir Stromkosten von 350€ im Jahr produziert oder 450€, da denke ich schon mal drüber nach.

Sardaukar.nsn
2021-08-06, 23:14:51
...
Irgendwann ist höher, schneller, weiter einfach nicht mehr das Ideal im Leben.

Sehe ich im PC Bereich ganz anders. Hier finden, im Gegensatz zu vielen anderen Hobby noch echte Innovation statt. Ich bin jetzt 39, angefangen Monkey Island auf x Disketten und Drehscheibe. Inzwischen spiele ich mit meinem Sohn Lego Builders Journey in Raytracing und ich bin gespannt wohin die Reise geht.

OpenVMSwartoll
2021-08-07, 03:22:20
[...]
Inzwischen spiele ich mit meinem Sohn Lego Builders Journey in Raytracing und ich bin gespannt wohin die Reise geht.

Auch wenn ich das thematische Abdriften selbst befördert habe: Das heißt doch auf keinen Fall, dass ich gegen Innovation wäre. Im Gegenteil: Gerade wir alten Haudegen haben die ersten Anfänge mitbekommen, in denen Perspektive durch das Verwenden einzelner Linien vorgegaukelt wurde. Raytracing ist doch seit Jahrzehnten ein Faszinosum.

Ja, Technik übt immer noch ihren Reiz aus. Aber doch bitte nicht um jeden Preis zu jedem Preis. Die Schwerpunkte verschieben sich und ein gutes Essen mit nem schönen Roten erfreut auch ungemein.

Nur müssen wir uns dem Faktum stellen, dass nichts unbegrenzt verfügbar ist und alles, was wir tun und anstreben, seinen Preis hat.

Sardaukar.nsn
2021-08-07, 08:23:42
@OpenVMSwartoll Da stimme ich dir absolut zu. Es sollte alles irgendwo im Rahmen bleiben. Trotzdem finde ich PC-Gaming im Vergleich mit anderen Männerhobbys (Audio/HiFi, Fahrrad usw.) immer noch überschaubar von den Kosten. Ganz besonders die Stromkosten.

WedgeAntilles
2021-08-07, 09:58:58
Und ist es nicht gerade die junge Generation, die fordert, alles zu tun, um "das Klima zu retten"?

rofl, guter Witz.
Eine handvoll Fanatiker will den ANDEREN diktieren, wie sie zu leben haben.

Jeder darf so leben wie er es möchte - weniger Konsum und sonstwas.
Die Schreihälse selber verzichten aber witzigerweise auf gar nix. Neuestes Handy, Coffe 2 go in der Pranke. Eine höhere dichte an modernsten Handys wie bei den "Demos" von Fridays for Future (klar, Samstag pennt man ja, auf den Schlaf verzichtet von denen keiner, man geht halt nicht in die Schule) findest du noch in nem Apple-Store.

Die Natur hat gigantische Probleme.
Überfischung der Meere.
Vermüllung der Meere.
Mikroplastik.
Vernichtung des Lebensraums der Tiere. (Unter anderem damit man "Ökosprit" anbauen kann.)
Damit verbunden massive Verarmung der Tier- und Pflanzenwelt. Es gibt absolut weniger Tiere, Insekten, Pflanzen pro m² und es gibt weniger Vielfalt.

Es gehen täglich zig Tier- und Pflanzenarten verloren, durch Bejagung, Lebensraumvernichtung, Vergiftung und so weiter.

Klimawandel? Haha, der ist irrelevant für die Natur.
Dann wird es halt 2 Grad wärmer, who cares.
Die Natur ganz sicher nicht.
Ja, es gibt eine handvoll Arten die theoretisch Probleme hat.
Aber die sind in 50 - 100 Jahren sowieso längst ausgetstorben. Zusammen mit dem 1000 fachen an Arten die mit dem Klimawandel keine Probleme hätten. Die wir aber heute vernichten. Weil es uns scheiß egal ist. Weil wir uns nur für den lächerlichen "Klimawandel" interessieren.


Alle oben angesprochenen Probleme würden sich übrigens tatsächlich lösen lassen.
Zu einem winzigen Bruchteil der Kosten die unser "Kampf gegen den Klimawandel" verschlingt. Die übrigens völlig sinnlos sind.
Weißt du wie lange nach den aktuellen Modellen der Klimawandel sich auf sicht von 100 Jahren verschieben würde, wenn es Deutschland von heute auf morgen nicht mehr gäbe? 2 Wochen.
D.h. der Temperaturanstieg der bisher 100 Jahre dauert würde dann 100 Jahre und 2 Wochen dauern.
Wenn Deutschland komplett nicht mehr existieren würde.
Ob man dabei eingerechnet hat, dass diverse Produktionen die in Deutschland stattfinden (z.B. Automobil) dann halt in China wäre weiß ich nicht.

Statt also die Probleme anzugehen die tatsächlich quantifizierbar, beherrschbar und lösbar sind, verschwenden wir unser Geld für den "Klimawandel".
Löst genau 0 Probleme für die Umwelt und die Natur.
Aber ist natürlich viel besser - denn bei den anderen Problemen müsste man sich als Politiker ja dran messen lassen ob man was erreicht hat.

Da ist es natürlich viel besser gegen den "Klimawandel" vorzugehen.
Keiner kann etwas überprüfen, ich kann jede nur denkbare Maßnahme damit begründen.
Traumszenario.

Die Erde ist wie ein Patient, der diverse Krankheiten hat. Er hat Krebs, Blutvergiftung, eine schwere Lungenentzündung. Und einen eingewachsenen Nagel. Der eingewachsene Nagel ist der Klimawandel.
Jepp, das ist bestimmt das Problem, um das sich der Patient primär kümmern sollte.

Loeschzwerg
2021-08-07, 10:01:27
Die Leistungsaufnahme im Rahmen halten und Innovation schließen sich ja gegenseitig nicht aus. Ich finde einfach man sollte wieder etwas näher in Richtung Sweet-Spot gehen. Momentan haben wir nämlich folgende Situation:
- OC fast nicht mehr möglich ohne extreme Mittel
- wer es sparsam möchte muss selber Hand anlegen mit UV + evtl. Taktreduzierung

Eigentlich müsste es wieder genau anders herum sein. Wer wirklich Leistung um jeden Preis haben möchte, der sollte Hand anlegen müssen. So war es doch vor ein paar Jahren auch noch!
Das würde letztendlich auch den Boardpartnern wieder mehr Möglichkeiten geben. OC Modellen würden ihrem Namen wieder eher gerecht werden und man könnte die normalen Karten sogar als "Green Edition" vermarkten.

Das es auch vernünftig und Leistungsstark geht zeigen mMn auch die Pro Karte (Quadro und Co.).

blackbox
2021-08-07, 10:38:09
Die Sicht auf den Stromverbrauch ist eine deutsche Sicht, denn wir haben mit die höchsten Strompreise unter den Industrienationen.
(Den Thema Klima klammere ich hier mal aus, denn das ist nur ein Nebeneffekt. Ob positiv oder negativ sei mal dahin gestellt.)

Die Kosten für Strom sind in den letzten Jahren explodiert, gilt aber wie gesagt nur für Deutschland. Hersteller wie Nvidia oder AMD kümmert das doch gar nicht. Die denken global. Da geht es nur um Leistung und Gewinn. Wenn ein Produkt effizienter werden sollte, dann ist das ein positiver Nebeneffekt, den sie gut vermarkten können. Das gilt aber nicht für den absoluten Strombedarf dieser Chips. Letztendlich geht es nur darum, ein Produkt verkaufen zu können, dass in der Leistung den Konkurrenten übertrifft zu einem vertretbaren Preis. Und das beinhaltet auch, dass die Kühlung dieser Chips nicht zu teuer wird. Es ist mit Sicherheit mehr möglich, dass ist dann für die Hersteller aber nicht mehr lohnenswert.

Troyan
2021-08-07, 11:36:24
Eine 3090 ist eine hocheffiziente Karte. 4K mit Raytracing wie in Doom und Metro ist komplett nutzbar. Der Konkurrent scheitern mit seiner ineffizienten rückständigen Karten schon an 1080p. Wer keinen technischen Fortschritt ala Raytracing benötigt, kann mit einer 3060 und DLSS perfekt auf 4K hochskalieren. Das Ergebnis, was nVidia hier liefert, ist im Grunde unglaublich und steigert die Effzienz einer 3060 um mindesten den Faktor 2, wenn man einen 4K Monitor besitzt.

Niemand muss heutzutage eine 3080/3090 kaufen. Aber viele wollen eben auch keine Abstriche machen. Das ist ein Paradoxon, was nur durch jeden selbst gelöst werden kann.

Lehdro
2021-08-07, 11:41:24
- OC fast nicht mehr möglich ohne extreme Mittel
Trifft aber so fast nur auf CPUs zu, die haben aber noch die Memory OC Schiene, um da ihre 20%+ rauszuholen.
Bei allen aktuellen GPUs kannst du mit UV+OC locker zweistellige Performancegewinne rausholen. Curve Editor bei NV und Wattman/MPT bei AMD können da wahre Wunder bewirken, wenn man weiß was man tut.


[...] und man könnte die normalen Karten sogar als "Green Edition" vermarkten.
Ich glaube das Thema ist seit 2009 durch. Da gab es diverse Green Editons, die auf dem Markt aber nicht wirklich gut ankamen. Niemand außer Deutsche würde sowas ernsthaft in Betracht ziehen - sorry. Bei allen anderen Märkten gilt immer noch more Power = more better. Siehe auch den Erfolg der OC Karten, die teilweise 20% mehr Strom verblasen für 5% mehr Leistung.

Loeschzwerg
2021-08-07, 14:20:20
Bei allen aktuellen GPUs kannst du mit UV+OC locker zweistellige Performancegewinne rausholen. Curve Editor bei NV und Wattman/MPT bei AMD können da wahre Wunder bewirken, wenn man weiß was man tut.


In bin jetzt mal provokant und sage dass dieser Gewinn in der Praxis fast völlig vernachlässigbar und schon gar nicht spürbar ist. Der Aufwand steht für mich da schon lange in keinem Verhältnis mehr, gerade wenn es auch richtig stabil sein soll über eine Vielzahl von Anwendungen (und spätestens hier scheitert es auch mit der Glaubwürdigkeit der üblichen Foren-Poser). Edit: Aber egal wie, das ging doch auch mit normalen Karten mit eben noch mehr Spielraum nach oben.

Und zum Rest: Mumpitz. Es gibt so viele Leute international die sich z.B. wieder kompaktere Karten wünschen, egal ob SingleSlot, LowProfile oder auch mal wieder einfach nur Dual Slot ITX Size. Und da braucht man was dafür? Genau, Karten die nicht auf Brechtsange laufen. Es muss ja nicht das "Green" Label tragen, war ja nur ein blödes Beispiel, da kann sich das Marketing dann was überlegen.

MAX|HASS
2021-08-14, 22:07:26
Spielt die Taktung einer Karte die alleinige Rolle für den Stromverbrauch oder auch die (springende) Auslastung? War immer der Meinung, daß alleine der Saft den Ausschlag gibt, was ne Karte zieht.

Beispiel: Hatte RDR² bisher immer mit 60Bilder/s gespielt, mehr schafft meine Kiste ja wie gesagt auch kaum noch bei dem Spiel (1070@TollHD™). Takt war auf Höchstzahl 1850Mhz, Auslastung bei 80-85%. Dann irgendwann mal runtergestellt, oh, läuft ja bei gedeckelten 45fps genauso butterweich, ruckelt auch nichts oder so (vielleicht freesync sei Dank). Auslastung fiel auf 60-65%, Takt klebte aber weiterhin bei 1850Mhz. Bringt mir in dem Fall eigentlich gar nichts oder? Da wird doch kein Watt weniger durchgehen, wenn die nur noch knapp über die Hälfte ausgelastet ist. Und der Energieverwaltungsmodus im Treiber steht schon auf optimal oder adaptiv, aber auf die nächstkleinere Stufe kommt er auch bei 45fps-Cap nicht runter bei dem Spiel, noch zuviel zu rendern. 1404 hatte ich die Tage mal angeworfen, mal wieder reingucken, da verhebt sich der Modus komplett. 9% Auslastung, aber volle Möhre Drehzahl..

ChaosTM
2021-08-15, 09:41:28
Eine 3090 ist eine hocheffiziente Karte. 4K mit Raytracing wie in Doom und Metro ist komplett nutzbar. Der Konkurrent scheitern mit seiner ineffizienten rückständigen Karten schon an 1080p. Wer keinen technischen Fortschritt ala Raytracing benötigt, kann mit einer 3060 und DLSS perfekt auf 4K hochskalieren. Das Ergebnis, was nVidia hier liefert, ist im Grunde unglaublich und steigert die Effzienz einer 3060 um mindesten den Faktor 2, wenn man einen 4K Monitor besitzt.

Niemand muss heutzutage eine 3080/3090 kaufen. Aber viele wollen eben auch keine Abstriche machen. Das ist ein Paradoxon, was nur durch jeden selbst gelöst werden kann.

Wirklich hocheffizient sind höchstens die Mobilen NV Chips wie zb. die 3080er @ 90-100 Watt. DAS ist wirklich beeindruckend. Die schlägt ein 3060er @ 160 Watt.
Freu mich schon auf meinen neuen Schlepptop mit diesem Chip :)

Und wer überhaupt kein oder weniger RT will/braucht ist Punkto Effizienz bei AMD sowieso oft besser aufgehoben. Die Performance/Watt Ergebnisse sprechen da eine eindeutige Sprache. Die 3060er ist da auch noch zu empfehlen und hat wenigstens ordentlich Speicher.
Ansonsten gewinnt die 6800er Reihe hier ziemlich deutlich.

@Wedge

Denk mal über den Zusammenhang Artensterben und Klimawandel nach, dann wirst du sehen, das die Ursache die selbe ist. Die 2 Dinge kann man nicht entkoppeln, auch wenn es besser ins eigene, nicht verzichten wollende, Weltbild passt. Urwald Rodungen sind nur der erste Hinweis..

Platos
2021-08-15, 11:52:44
@Wedge: Also 2 Grad wärmer who cares ist genau nicht der Fall. Deine Grundaussage (so verstehe ich sie mal), man sollte mehr Naturschutz betreiben und nicht Klimaschutz vor ALLEM anderem stellen, würde ich ja unterschreiben. Aber sorry, es kümmert (DANN) sehr wohl jeder, wenn es 2 Grad wärmer wird. Ausserdem sind in einigen Fällen Massnahmen gegen den Klimawandel auch oft hilfreich (indirekt) gegen das Artensterben.

Aber mit der Aussage, dass die Arten schon vorher aussterben, hast du gar nicht unrecht. Klimaschutz ohne Umweltschutz stoppt kein Artensterben. Ausserdem ist der mit Abstand grösste Faktor schlicht das wegnehmen von Lebensraum (auf dem Land). Gerade in Europa gibts fast keine richtigen (und vor allem grossen) Wildgebiete. Nationalparks sind hier ein Witz.

Aber würdest du mal Quellen liefern, bei Behauptungen wie Erwärmung spielt keine Rolle ? Aber bitte in einem OT Thread unter Religion und Wissenschaft.

BTW: Ich gebe dir sogar recht, dass viele Leute immer den anderen die Schuld geben. Es gibt da auch so die Kandidatrn (und ich kenne viele davon persönlich), die einfach "dem Staat" gerne alles in die Schuhe schieben bzw. den "grossunternehmen". Den eigenen Konsum hinterfragen machen dann die wenigsten. Bzw. wollen sie eig., dass alles für sie gerichtet wird, sie weiter konsumieren wie eh und je, aber alles "umweltfreundlicher" produziert wird.

Aber man sollte definitiv nicht über den Lebensstil von Leuten richten, nur weil sie ein neues Handy haben. Btw. kaufen das meistens die Eltern bei jungen Leuten, also...

Aber: Sie könnten auch mit dem SUV zu Demos fahren. Das spielt keine Rolle. Was eine Person tut, hat keinen Einfluss auf die Richtigkeit oder nicht Richtigkeit ihrer Aussage. Vlt. in der Glaubwürdigkeit, aber nicht im anderen.

Von daher: Du sagst, sie wollen, dass die anderen etwas tun. Und du schaust nur auf die anderen und sagst, sie sollen tun, was sie fordern. Aber was tust du? Schaust du nun nicht auch einfach auf die anderen, anstatt über die Fakten zu diskutieren?

Vlt. sollte man sich so ne Art Fragesatz in sein Repetoir aufnehmen: "Warum Diskutiere ich lieber darum, was andere tun, anstatt über den Inhalt zu diksutieren?" Irgend so etwas.

(Nicht, dass ich das immer tue/schaffe...)

Gast
2021-08-17, 15:07:24
Man stellt alles auf stromsparend um und gleicht das dann durch ein Heizkraftwerk aus?
Unfug. Konsequent stromsparend bedeutet 'abschalten/abschaffen'. Das wird aber nicht gemacht und ist selten sinnvoll.
Real werden zahlreiche Faktoren berücksichtigt und ein Kompromiss gewählt. Selbst wenn man nicht über den Tellerrand blickt und auf PC-Komponenten beschränkt, ist deine Frage Unfug.

Als Killerargument kommt hinzu, dass Gaming Hobby ist.