Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Neue Prozessoren & Grafikkarten lieber Stromverbrauchs-neutral?
Leonidas
2022-09-18, 12:09:07
Link zur Umfrage:
https://www.3dcenter.org/umfrage/umfrage-neue-prozessoren-grafikkarten-lieber-stromverbrauchs-neutral
Link zur Umfrage-Auswertung:
folgt
bloodflash
2022-09-18, 12:46:30
Ich habe zwar für letztere Option gestimmt, mir fehlt aber eine 4. Option: Geringere Stromverbräuche im Vergleich zur aktuellen Generation.
Da bin ich eher der Typ Sweet Spot: Bei Zen3 würde ich eine 65W-CPU auf 45W drosseln und eine Grafikkarte wählen die ~150W in der Spitze aufnimmt. Da hätte AMD eigentlich die 6700xt ansetzen müssen bei kaum geringerer Performance gegenüber der ursprünglichen SKU. Stattdessen hauen sie eine 6750xt raus.
Deshalb bin ich jetzt raus bei dem Thema, obwohl zum Jahreswechsel eigentlich ein Upgrade angestanden hätte.
Zudem kommen noch die Pferdefüsse von fehlenden Features und zu hohen Preisen bei den kleineren Varianten.
Nope, ohne mich!
Ich sähe lieber eine tendenzielle Stromverbrauchsreduktion.
Wie ich ihn bsw. beim Wechsel vom 3700X auf den 5800X3D bekommen habe, in dem Fall gleichzeitig mit einem ordentlichen Performanceschub und damit win-win.
Blase
2022-09-18, 14:11:08
Ich bin mit den drei Antwortoptionen auch nicht ganz glücklich.
Primär zählt schon die Performance - und wenn dafür dann etwas mehr Saft bei den Flaggschiffen gegeben wird, geht das für mich i.O.
Aber wenn wir jetzt pro Generation gleich mal +100 oder mehr Watt oben drauf machen, sind wir ja absehbar in ein paar Jahren vierstellig - alleine für die Grafikkarte. Das geht dann natürlich auch nicht.
Was schlussfolgere ich also daraus? Wahrscheinlich eine Obergrenze, die zwar höher sein darf, als es in der aktuellen Gen der Fall ist, aber dennoch nicht "beliebig" weiter gesteigert werden sollte. Schwammig...
MfG Blase
Tommi123
2022-09-18, 14:11:40
Meine Meinnung wäre: Warum nicht beides ???
>> verschiedene Profil-einstellungen (undervolten, runtertakten, teilabschaltungen usw...)
Auf diese Weise hat man Power wenn man sie braucht und kann sparsam arbeiten wenn man will.
Mortalvision
2022-09-18, 14:47:43
Dann hättest du für diese Zeit aber immer noch ein overengineertes Powersetup, das du trotzdem abnutzt.
Ich bin sehr dafür, die nächsten Gens leistungsfähig genug für 4k zu machen, und dann zu sagen: that's it, lass den Strombedarf angehen. Die 5090 und 6090 sind eh schon im Design und da wirst nix mehr viel dran machen. Aber damit uns nicht nochmal sowas wie dieses Jahr passiert, sollten Gamingrechner nicht mehr als 200/250W ohne Monitor ziehen. Das wird man für ein nettes 4k hinbekommen. Spezielle Anwendungen aus Industrie können dann trotzdem ihre HPC GPUs bekommen, unabhängig von den Consumern.
Platos
2022-09-18, 14:53:14
Ich habe zwar für letztere Option gestimmt, mir fehlt aber eine 4. Option: Geringere Stromverbräuche im Vergleich zur aktuellen Generation.
Ja, sehe ich genau so. Ich hätte das auch der 3. Option vorgezogen.
Es kommt immer aufs Verhältnis an.
Mehrverbrauch ohne Mehrperformance nicht gut.
Mehrperformance bei gleichem Verbrauch gut.
Mehr Verbrauch bei noch deutlich mehr Performance auch gut.
So lange die Energieeffizienz signifikant steigt ist alles gut, bei welchem Realverbrauch ich meine Hardware betreiben will kann man heutzutage ja sehr gut regeln.
Wieder mal nur Ökos hier. Dabei wollt ihr doch insgeheim Leistung und nichts anders.
Ja, sehe ich genau so. Ich hätte das auch der 3. Option vorgezogen.
Geht mir genauso.
Selbst wenn die aktuellen Ampere/RDNA2-Karten preislich wieder attraktiv wuerden, so wuerde ich wegen ihres Strombedarfs maximal ein 3070/6800 kaufen. Ich habe bereits Sommer erlebt, da habe ich zeitweise nur noch das Laptop statt des (schnelleren) PC benutzt. Anderenfalls haette ich ich nullkommanix auch nachts noch 28°C in der Wohnung gehabt (nv1080+Ryzen 3900).
Warum soll denn auf einmal effizient und schnell nicht mehr gehen, fehlt auch in der Auswahl.
Was die GPU Hersteller derzeit machen ist raus quetschen was geht, auch über den Verbrauch hochprügeln, so billig wie möglich für viel Geld. Schei*Trend egal ob CPU oder GPU, sorry kauf ich nicht den Plunder, egal wie schnell. 50% schneller bei 50% mehr Energie, lol das ist keine Innovation.
Mortalvision
2022-09-18, 17:18:09
Jo, meine 6800XT ist grad so an der Kotzgrenze zum Strompreis, dabei habe ich seit 10 Jahren schon nen Ökostromtarif ;) Da will ich erst mal die doppelte Leistung sehen, damit es in 4k flotter läuft, natürlich bei gleichem Stromverbrauch!
Meridian12
2022-09-18, 17:29:22
Habe Nummer 3 gewählt.
Eigentlich sollte die EU eine Watt Grenze für Grafikkarten einführen.
Denn dann MÜSSTEN die Firmen dran arbeiten, das maximale aus dem vorhandenen Strom rauszuholen.
Aktuell hat man zu oft das Gefühl, man versucht einfach mehr Leistung aus mehr Watt rauszuquetschen.
Sardaukar.nsn
2022-09-18, 17:38:41
Eigentlich sollte die EU eine Watt Grenze für Grafikkarten einführen.
So wie beim Staubsauger? (https://www.br.de/radio/bayern1/inhalt/experten-tipps/umweltkommissar/staubsauger-watt-leistung-eu-verordnung-oekobilanz-umweltkommissar-100.html)
Das müsste dann aber auch für die Leistung von Elektroautos gelten, oder das was anderes? :freak:
MiamiNice
2022-09-18, 17:56:58
Ich finde die Umfrage an sich schon verkehrt - unabhängig der Antwortmöglichkeiten.
Ob es solche Umfragen wohl auch im Porsche Forum gibt? Ich habe auch noch nie jemanden gesehen der mir vor die Karre springt und irgendwas von Benzinkosten oder Umwelt faselt.
Wäre doch toll wenn das bei GPUs so läuft wie bei Fahrzeugen. Da heult keiner wenn der R8 an einem vorbei fährt. Ne im Gegenteil, alle verdrehen noch die Rübe um die Karre so lange wie möglich bestaunen zu können.
Freestaler
2022-09-18, 18:08:33
Warten wir mal ab was noch kommt. Zumindest Ryzen 7000 scheinen ja auch mehr Leistung pro Watt zuliefern. Und im Kontext von besser Perf/Watt an der Spitze darf mMn. auch Watt höher sein. Vorallem wenn tiefere Limit bzw. Uv so easy per softwäre möglich ist.
@MiamiNice, Du drehst dich für nen R8 noch um? Hoffst noch immer auf TT in gross? ;-)
iamthebear
2022-09-18, 18:29:48
Meine Meinung dazu:
a) Es sollte den GPU Käufern die Möglichkeit gegeben werden relativ einfach im Treiber die TDP zu ändern und es sollte für alle TDP Werte eine sinnvolle Spannungskurve hinterlegt sein bzw. auch Speicherinterface etc. mitgetaktet werden.
b) Es sollte den AIBs ermöglicht werden das gesamte TDP Spektrum anzubieten wenn ein Kunde keinen 600W Kühler für seine 4090 bezahlen will wenn er diese nur mit 350W laufen lässt.
Hierfür muss es jedoch klar geregelte Kennzeichnungsvorschriften geben, damit dem Kunden klar ist war er bekommt. Sonst haben wir denselben Mist wie bei Notebooks, dass zwar ein toller Die drin ist, der jedoch ständig ins thermische Limit läuft weil der Kühler Mist ist.
c) Reviews sollten alle auch einen Skalierungstest (mit einem Spiel) beinhalten bzw. ein Rating (über alle Spiele) bei gleicher TDP wie der Mitbewerber beinhalten z.B. RTX 4090 Ti vs. 7900 XT beide mit 400W
Computerbase hat das z.B. mit der 3070 Ti gemacht und bei 220W hat diese gegen die 3070 sogar leicht verloren.
MiamiNice
2022-09-18, 18:38:07
@MiamiNice, Du drehst dich für nen R8 noch um? Hoffst noch immer auf TT in gross? ;-)
Wer sagt das ich mich umdrehe? Ich nehme das eher wahr ;)
Mehrperformance ohne Kompromisse und damit auch unter steigendem Stromverbrauch
Beim Speicher macht nVidia Kompromisse und verbaut langsameren und ineffizienteren GDDR Speicher. Statt über 600W zu verbraten und teure Kühllösungen zu konstruieren, sollte nVidia effizienten HBM (z.B. mit 1,5 TB/s) verbauen und auf diese Weise die Performance erhöhen. Bei den Mondpreisen (Doppelt so hoch wie bei der R7!) kann man das erwarten.
Sardaukar.nsn
2022-09-18, 20:06:02
Ich finde die Umfrage an sich schon verkehrt - unabhängig der Antwortmöglichkeiten.
Ob es solche Umfragen wohl auch im Porsche Forum gibt? Ich habe auch noch nie jemanden gesehen der mir vor die Karre springt und irgendwas von Benzinkosten oder Umwelt faselt.
Durch die Energiewende und EE wird es ja teilweise noch kurioser. Bei uns müssen die Windräder immer wieder abgestellt werden, da es nicht genügend Abnehmer/Speicher gibt. https://www.radiohochstift.de/nachrichten/paderborn-hoexter/detailansicht/kreis-paderborn-windraeder-stehen-still-stromnetz-ueberlastet.html
Um das Netz zu stabilisieren würde ein Ehrenmann der Energiewende mit einer 4090 Benchmarks machen oder im Backofen ne Pyrolyse Reinigung durchführen. :freak:
Rooter
2022-09-18, 20:18:50
[x] Performance
Aber nur so lange man es noch in einem normalen Gehäuse mit Luftkühlung in den Griff bekommt.
MfG
Rooter
Durch die Energiewende und EE wird es ja teilweise noch kurioser. Bei uns müssen die Windräder immer wieder abgestellt werden, da es nicht genügend Abnehmer/Speicher gibt. https://www.radiohochstift.de/nachrichten/paderborn-hoexter/detailansicht/kreis-paderborn-windraeder-stehen-still-stromnetz-ueberlastet.html
Speicher gibt es schon, aber die sind hierzulande nicht rentabel wegen der hohen Gebühren. :uup:
https://www.youtube.com/watch?v=H_4IktoCTQQ&t=855
Sardaukar.nsn
2022-09-18, 21:10:17
Das geht auf jeden Fall mit Luftkühlung, aber dafür braucht es aber auch ein gutes Design.
Fractal zeigt mit dem Torrent schon die Richtung. Apple kann mit den Freiheiten des Mac Pro aber noch deutlich konsequenter sein.
https://images.macrumors.com/t/JYc5Vh2cY55u92_VeGddDLfql0Q=/1600x/article-new/2019/12/mac-pro-xdr-kelsey-mcclellan-2-popular-mechanics.jpg
MiamiNice
2022-09-18, 21:20:19
Ich verstehe leider generell das Problem nicht. Es kann doch jeder für sich selbst über seinen eigenen Energie Fußabdruck entscheiden. C und GPUs gibt es in diversen Leistungsklassen. Zusätzlich kann man das PL auf das Watt genau justieren.
Rabiata
2022-09-18, 21:26:24
Habe Option 2 gewählt und auch danach eingekauft, mit einem kleinen Zugeständnis das dem eingeschränkten AMD-Portfolio geschuldet ist:
Die GraKa ist eine ASRock RX 6600 Challenger D. Die TDP ist 10% höher als die 120W, die ich eigentlich nicht überschreiten wollte. Aber die RX 6500 XT ist so eine Mißgeburt, die ging gar nicht.
Die CPU ist ein Ryzen 5600, die 65W-Klasse ist bei AMD traditionell die "Sparversion" im Desktop. Weniger geht meines Wissens (offiziell) nur bei den Pro-APUs, die haben noch einen "Power Down"-Modus.
Dann hättest du für diese Zeit aber immer noch ein overengineertes Powersetup, das du trotzdem abnutzt.
Overengineerte Teile laufen weniger heiß, was der Lebensdauer zugute kommt. Das Teil soll nach Möglichkeit die nächsten 10 Jahre halten. Und der Kühler dürfte auch leiser sein, weil der Lüfter die Kühlleistung mit weniger Drehzahl bringt.
Ich hab mir die ASRock auch aus dem Grund ausgesucht, daß der Kühler derselbe wie beim XT-Modell zu sein scheint (basierend auf Fotos). Da ist schon mal 20% Reserve impliziert.
Da Nvidia die effizienteren Chips baut und AMD diesmal keine kleinere fertigung hat wird es eher AMD sein die entweder nicht mithalten können oder deutlich mehr verbrauchen. Verstehe die Diskussion eh nicht, hier wird quasi rumgeheult das die Hersteller nicht nur Golf sondern auch Porsche. und Lamborghini anbieten,, wenn ihr der meinung seid ein Porsche verbraucht zu viel dann gibt euch mit nem Golf zufrieden. Schon komisch ich komme seit ewigkeiten mit 500 Watt Netzteil klar 🤣
looking glass
2022-09-18, 21:47:19
Ich bin mit der jetzt kommenden Generation irgendwie nicht zufrieden…oder werde einfach nicht abgeholt, bei CPUs 65 oder gleich 105WTDP, die maximalwerte sind ja nochmal nen ticken brutaler, der Zwischenschritt ~85W, so als Ziel dann nur wieder mit eigenhändiger TDP Grenze.
Das gleich bei der GPU, wo zum fick ist der 200 - 250W geblieben, ohne gleich wieder Speicherkrüppel mit 8GB Flaschenhals zu bekommen? Da ist das runtertakten dann nur mit extra Software möglich, nicht simpel im BIOS. Bei dem geblubber mit Win11 ist Linux für mich ne reelle Umstiegsvariante, aber wenn ich da nicht ebenfalls so simpel die GPU Verbrauchswerte regulieren kann, ist Softwareseitiges drosseln halt kacke.
Wie schauts eigentlich bei DDR5 mit dem Verbrauch aus? Die neuen Bretter für den neuen Zen dürften wegen OC auch erstmal übelste Idleverbrquchswerte haben, da kann man dann nur auf den keinen Chipsatz warten und hoffen, das der nicht auch komplett absäuft.
GerryB
2022-09-19, 01:13:13
[x] Performance
Aber nur so lange man es noch in einem normalen Gehäuse mit Luftkühlung in den Griff bekommt.
Dafür hat der liebe Gott das Fps-Limit erfunden.
Am Ende zählen nur Frametimes+Inputlag.
(irgendwelche Fantasie-maxFps sind doch nur für möchtegern Balkenlängen)
[x] mooore Performance
(in der Mittelklasse <1k € GPU+CPU+Board, ... die Boardpreise werden vllt. am Interessantesten und DDR4/5)
Leonidas
2022-09-19, 04:13:58
Ich habe zwar für letztere Option gestimmt, mir fehlt aber eine 4. Option: Geringere Stromverbräuche im Vergleich zur aktuellen Generation.
An alle, die das ähnlich sehen: Ich bitte um Entschuldigung, ich habe an diesen (naheliegenden) Punkt nicht gedacht. Ich werde die Umfrage deswegen nicht mehr ändern, aber es in der Auswertung entsprechend erwähnen.
hq-hq
2022-09-19, 07:52:08
4090, default 350watt mit max powerlimit 500watt, p-bios setzt es dann automatisch auf 500watt; 4090ti default 450 watt, p-bios 600watt... Mehr fps mehr watt ist i.O., so langsam dürfte es für Luftkühlung aber eng werden :-D
Loeschzwerg
2022-09-19, 08:02:08
[x] Es reichen extra SKUs mit gleichem Stromverbrauch.
Wer Leistung zu jedem Preis haben möchte, nur zu, ich habe mir allerdings klare Grenzen gesteckt. Grafikkarte => max. 250-300W; CPU => max. 150W
Das gleich bei der GPU, wo zum fick ist der 200 - 250W geblieben, ohne gleich wieder Speicherkrüppel mit 8GB Flaschenhals zu bekommen?
Ja, das frage ich mich auch. Mir gehen total vernünftige Lösungen ala Quadro/RTX A für den normalen Consumer Bereich ab.
Exxtreme
2022-09-19, 08:44:32
Ich verstehe leider generell das Problem nicht. Es kann doch jeder für sich selbst über seinen eigenen Energie Fußabdruck entscheiden. C und GPUs gibt es in diversen Leistungsklassen. Zusätzlich kann man das PL auf das Watt genau justieren.
Das ist richtig und für mich ist das auch kein Problem. :) Aber es gibt Leute, die wurmt das nicht das Schnellste zu haben. Sowas gibt es auch.
FarCry
2022-09-19, 09:18:10
Wieder mal nur Ökos hier. Dabei wollt ihr doch insgeheim Leistung und nichts anders.
Sicher wollen wir das.
Wir wollen deswegen aber auch nicht pleite gehen.
iamthebear
2022-09-19, 09:34:56
Das Grundproblem sind die viel zu hohen Margen von Nvidia und zum Teil auch von TSMC. Diese machen die Produkte schon einmal grundsätzlich zu teuer. Damit stellt sich die Frage nach weniger Verlustleistung gar nicht mehr denn eine 200W 4080 auf 3090 Niveau um > 1200 Euro will auch niemand.
vad4r
2022-09-19, 09:37:52
Ich muss einen Endstufen PC haben - davon habe ich mich schon lange entfernt.
Die Spiele orientieren sich doch eh nur noch an der aktuellen Konsolengeneration und der PC kann halt ein bisschen mehr Auflösung, mehr Filter usw.
Dafür aber das 4fache an Strom verbrauchen als eine Konsole?
Klar geht der Stromverbrauch auch ins Geld, besonders heutzutage. Aber ich möchte auch kein PC mehr haben, der unter Last mit seiner Kühlung nervt - oder den ich zu aufwenig kühlen muss, damit er leise bleibt.
Egal was jetzt kommt, den NV Weg mit mehr Leistung nur durch noch mehr (extrem) Stromverbrauch gehe ich nicht mehr mit.
Asaraki
2022-09-19, 10:19:49
Absolut, ist mir völlig egal wenn ich mal irgendwas nicht voll aufdrehen kann. Mehr als 250W kommt gar nicht in Frage, meine Ti darf auch nicht mehr saufen und ist dafür dann auch richtig Effizient.
Bin halt Ingenieur im Herzen und bevorzuge Effizienz über rohe Leistung. Brute force ist für schlechte Ingenieure oder lebenswichtige Bereiche, sicher nicht Bilder auf einem Monitor ^^
Daredevil
2022-09-19, 10:35:29
Freilich beides und kein entweder oder.
Ein Prozessor sollte 2022 in der Lage sein, grade im Idle maximal Stromsparend zu sein, bei "leichten" Aufgaben ebenso und wenn Performance benötigt wird, diese auch abzufragen, aber auch hier in keinem unsinnigen Verhältnis. Ein Prozessor kann meinetwegen auch 1000w verbrauchen, solange er 10x schneller ist als einer, der 100w verbraucht. Wenn eine CPU aber 50% mehr verbraucht bei 5-10% Leistung ist das maximal lächerlich.
Das schreibe ich gerade auf einem MacBook Pro mit M1 Max auf einem 500 Nit hellen MiniLED Screen und verbrauche dabei ca. 10w.
Mein 5600x+3090 Desktop Rechner verbrauch das 6-fache im Idle, das ist einfach nicht mehr zeitgemäß.
Eine 3090 ist relativ stromsparend im Idle ( 18w ), sehr effizient bei leichten Aufgaben ( 1400Mhz@0.7v@140w ) und kann bei Not auch 4k60 bespielen bei ca. 300w. Die Range hier ist riesig und das sollte Nvidia auch in Zukunft beibehalten. Idle Verbrauch ist massiv wichtig, da hier der Rechner vermutlich eh die meiste Zeit ist.
amdfanuwe
2022-09-19, 11:25:54
Wo ist denn der Punkt "Gafikkarten ganz verbieten, iGPU bietet genug Leistung"?
oder back to the roots, die ersten Grafikkarten waren noch passiv gekühlt. Hätte man damals schon beschränken sollen.
Nur weil bei einigen das EGO nicht erlaubt mal ne Nummer kleiner einzukaufen gleich alle in Sippenhaft nehmen?
Bei GPU an Saft sparen damit andere noch ihren E-SUV mit 200+ über die Bahn bewegen können?
Wer sich eine $1000 GPU leisten kann, hat wohl auch noch das Kleingeld für die erhöhten Stromkosten. Ansonsten mal kürzer treten.
Asaraki
2022-09-19, 12:05:28
Ich undervolte nicht wegen der Stromkosten sondern aus Prinzip
Lehdro
2022-09-19, 14:30:00
Mir fehlt hier auch die Vernunftoption:
[x] "Mehrverbrauch und Mehrperformance sollen in einem vernünftigen Verhältnis zueinander stehen"
Ich akzeptiere 450W GPUs wenn diese dann auch genauso/ähnlich effizient wie die kleineren Brüder sind. Leider ist Letzteres nicht mehr der Fall, wird haben da teilweise Produkte auf dem Markt die +50% Verbrauch mit +10% Leistung honorieren - das kann ich mit OC auch selber ;)
Früher war das anders, da hatte man teilweise sogar die beste FPS/Watt mit den Topmodellen. Können wir nicht wieder dahin zurück?
Asaraki
2022-09-19, 15:19:25
Das ist ja im Prinzip immer noch gegeben. Es gibt nun neu über den Topmodellen einfach noch die „Holzhammer-Modelle“ :-)
Die 3090 war ja sehr effizient - die 3080 eigentlich auch. Nur die Ti sind von Hause aus total überdreht.
Lehdro
2022-09-19, 15:59:13
Das ist ja im Prinzip immer noch gegeben. Es gibt nun neu über den Topmodellen einfach noch die „Holzhammer-Modelle“ :-)
Wenn du es so drehst, stimmt das natürlich, aber ein bissl schönreden ist da schon dabei ;)
Die 3090 war ja sehr effizient - die 3080 eigentlich auch. Nur die Ti sind von Hause aus total überdreht.
Und genau das war halt früher anders: 1080 Ti war effizienter als 1080, 2080 Ti effizienter als 2080...natürlich waren die alle eher auf dem selben Niveau, aber mit leichtem Schlag zur besseren Effizienz. Schaust du dir dagegen RTX 3000 an...oh boy. Plötzlich ist 3070 > 3060 Ti > 3090 > 3080 = 3080 Ti > 3060 > 3070 Ti. (https://www.computerbase.de/2021-06/nvidia-geforce-rtx-3070-ti-review-test/3/#abschnitt_energieeffizienz_in_fps_pro_watt) :freak:
Asaraki
2022-09-19, 16:16:11
Damals gab es aber nur eine Ti und keine 90. wenn man es genau nimmt dann sind die neuen Ti alle zusätzlich und eben „oben drauf“
Natürlich ist das schönreden, absolut. Aber mir sind die Nummern und ob etwas salvage oder voll ist total egal und so gesehen habe ich genug Karten zur Auswahl, die auch relativ effizient ausgeliefert werden
Und die Tis sind angepasst auch ganz effizient.
Und ja. Das ist natürlich pures Marketing und Bauernfängerei.
Ich verstehe leider generell das Problem nicht. Es kann doch jeder für sich selbst über seinen eigenen Energie Fußabdruck entscheiden. C und GPUs gibt es in diversen Leistungsklassen. Zusätzlich kann man das PL auf das Watt genau justieren.
Ja, stimmt. Aber es ist dennoch ein wenig anders als der Autovergleich, glaube ich: Neu gebaute Straßen werden nicht für den Audi R8 etc angepasst, sondern man kann die auch mit nem Golf gut fahren. Bei Spielen ist das aber potentiell ein wenig anders, da entscheidet der ein oder andere Spielehersteller, die von den GPU-Anbietern bereitgestellte Hardwarepower auch auszunutzen. Klar, man kann die Einstellungen runterdrehen (will aber so mancher wiederum auch nicht) oder alternativ das Spiel einfach einige Jahre später spielen, um dabei weniger Energie zu verbraten trotz einer schönen Grafik. Aber der Haben-wollen-Effekt und vielleicht auch das Mitreden-wollen sprechen leider dagegen. :/
Ich bin allerdings erfreulich über das bisherige Umfrageergebnis überrascht. :)
Windi
2022-09-19, 19:48:31
Die Hersteller haben halt die Erfahrung gemacht, das man unbedingt die schnellsten overclocking Varianten haben muss, um bei vielen Spielern gut anzukommen.
Ich finde es auch nicht gut, das die neuen AMD Prozessoren mehr Strom verbrauchen. Aber anscheinend kommt später noch eine Version mit nur 65W TDP.
Das finde ich dann eine gute Lösung, beides anzubieten.
Es ist auch nicht schlimm, wenn die overklocking Variante 3 Monate früher erscheint. In der Zeit ist man eh Betatester und man muss am Anfang einen deutlichen Aufpreis bezahlen.
Also einfach ein paar Monate später eine sparsamere Version veröffentlichen und ich bin zufrieden.
Wo ich noch Probleme sehe, sind die Mainboards. Dort erkennt man einfach nicht, wieviel Strom die verbrauchen.
Viele sind maximal ausgestattet und auf overclocking ausgelegt. Ich will aber ein sparsames Board. Mainboard + CPU + iGPU sollten beim surfen oder Videos schauen keine 10Watt verbrauchen. Das schafft fast jeder Laptop, aber manche Mainboards liegen dort weit darüber.
N0Thing
2022-09-20, 01:07:51
Ich hätte für eine Option 4 oder 5 gestimmt, bei der es reichen würde, eine extra SKUs mit hohem Stromverbrauch für maximale Leistung zu bringen und den Rest im sinnvollen Bereich von 300W und darunter.
Wer einen 4 Slot-Klopper oder WaKü nutzen will, um die Abwärme in den Griff zu kriegen, warum nicht. Aber mehr Leistung sollte nicht mit immer höherer Leistungsaufnahme erkauft werden, egal ob die Effizienz am Ende besser ist.
Leonidas
2022-09-20, 03:37:44
Mir fehlt hier auch die Vernunftoption:
[x] "Mehrverbrauch und Mehrperformance sollen in einem vernünftigen Verhältnis zueinander stehen"
Das ist immer noch Option [1]: Jene Option schließt Effizienz überhaupt nicht aus.
OpenVMSwartoll
2022-09-20, 04:04:19
Das ist immer noch Option [1]: Jene Option schließt Effizienz überhaupt nicht aus.
Naja, die Option beinhaltet auch 10 % Leistungszuwachs bei 100 % Mehrverbrauch, was kaum effizient wäre.
Ja, stimmt. Aber es ist dennoch ein wenig anders als der Autovergleich, glaube ich: Neu gebaute Straßen werden nicht für den Audi R8 etc angepasst, sondern man kann die auch mit nem Golf gut fahren. Bei Spielen ist das aber potentiell ein wenig anders, da entscheidet der ein oder andere Spielehersteller, die von den GPU-Anbietern bereitgestellte Hardwarepower auch auszunutzen.
Imo brauchst Du Dir da keine Sorgen machen. Der Marktanteil existierender hw ist für den Absatz viel wichtiger. Und die Konsolen spielen auch immer noch eine große Rolle. Alle AAA Titel müssen für ein breites Spektrum optimieren. Würdet sagen es kann dann die ultra high-end sonst was Einstellung weniger optimiert kommen, weil eben nur ganz kleiner Marktanteil bei release des Games.
Sprich die Straße wird definitiv optimiert für die Masse. Alles andere wäre finanziell zu viel Risiko.
Lehdro
2022-09-20, 13:25:54
Das ist immer noch Option [1]: Jene Option schließt Effizienz überhaupt nicht aus.
Schließt aber Effizienz auch gar nicht ein. Es geht nur um Performance, egal wie. Wie OpenVMSwartoll schon sagte ist da von 1% Mehrperformance für 100% Mehrverbrauch bis 100% Mehrperformance für 1% Mehrverbrauch alles drin - maximal schwammig formuliert.
Ich sehe das so: Solange die Effizienz trotzdem deutlich steigt, nehme ich gewisse Verbrauchssteigerungen in Kauf. Das Endprodukt muss einfach deutlich effizienter sein als die Vorgänger, mehr will ich nicht.
MiamiNice
2022-09-20, 14:08:37
Naja, die Option beinhaltet auch 10 % Leistungszuwachs bei 100 % Mehrverbrauch, was kaum effizient wäre.
Das steht wo?
Wenn ich mit 10% mehr Leistung einen Mitarbeiter entlassen kann, der mehr kostet als der Aufschlag auf die Energiekosten, ist schon effizient.
Oder ein griffigeres Beispiel:
Wenn ich mit den 10% Mehrleistung über die 60Fps Marke komme ist der Mehrverbrauch ziemlich irrelevant, da ich ohne die Mehrperformance gar nicht spielen könnte. Also schon effizienter als gar nicht zu spielen ;D
Leonidas
2022-09-20, 14:28:34
Schließt aber Effizienz auch gar nicht ein. Es geht nur um Performance, egal wie. Wie OpenVMSwartoll schon sagte ist da von 1% Mehrperformance für 100% Mehrverbrauch bis 100% Mehrperformance für 1% Mehrverbrauch alles drin - maximal schwammig formuliert.
Stimmt. Was aber im Sinn von nur 3 Antwort-Optionen vollkommen der Zielsetzung entspricht - maximale Abdeckung durch diese einzelne Option.
Lehdro
2022-09-20, 14:44:47
Also schon effizienter als gar nicht zu spielen ;D
Du weißt doch genau wie das gemeint ist: Die sollen Karten im Vollausbau herausbringen die ansatzweise vernünftig positioniert sind. Das OC auf Kotzgrenze kriege ich auch selber hin (sofern nicht wieder beim möglichen PL gegeizt wird...), da brauche ich zum Beispiel kein NV das mir die Karten wie Babybrei vorbereitet: Heiß, gibt es in zig. verschiedenen Varianten und irgendwie doch alle geschmacklos.
MiamiNice
2022-09-20, 15:30:05
Ich weiß schon ganz genau was gemeint ist, sehe es aber komplett anders. Zähle mich definitiv nicht zu den Menschen die es besser wissen als die Ingeneure bei AMD, Intel oder NV. Ganz im Gegensatz zu der Masse an Usern in den deutschen Foren.
Wenn ich über das Problem sinniere, kommt mir als erstes in den Sinn, dass alle drei Firmen ein massives Interesse an der Effizienz ihrer Produkte haben müssen.
Ist mein Produkt effizienter als das der Konkurrenz, habe ich entweder einen geringeren Verbrauch mit dem ich punkten kann, oder ich habe mehr Leistung wenn ich mich an der TDP der Konkurrenzprodukte orientiere.
Wenn also die Effizienz nicht weiter steigt, dann wird es wohl daran liegen, das es aktuell nicht geht. Jeder der meint AMD, Intel und NV machen ihre Arbeit nicht anständig, weil der Verbrauch nur noch steigt, die Effizienz aber nicht, sollte eventuell mal bei AMD, Intel und NV, mit seiner Lösung für das Problem, vorsprechen.
Da sind sicher ein paar Kracher zu verdienen für die bahnbrechende Idee.
Aber scheinbar hat bisher keiner mit einer Idee vorgesprochen also bleibt es bei "mehr Energie für mehr Arbeit". Also quasi so wie man es gewohnt ist ;)
Was ich aber absolut nicht verstehen kann, ist, wie man sich über 600 Watt GPUs echauffieren kann. Wenn die Effizienz also kaum steigt, wird wohl ein kleineres Produkt mit ungefähr der selben TDP wie das aktuelle, ungefähr die selbe Leistung liefern.
Warum kauft man nicht einfach das, wenn einem das große Produkt zu viel Strom verbraucht?
Ne dann kommen stimmen wie "Die EU soll die Wattage auf IT Produkten begrenzen", so ein völlig abstruses Weltbild kann man doch kaum haben.
Zusätzlich sei erwähnt, man kann den eigenen Sweatspot bei allen Produkten von AMD, Intel und NV selbst bestimmen.
€: Produkte sollen sich verkaufen. Hardware Produkte verkaufen sich über einen langen Balken und/oder Fanboism. Warum sollte NV nicht alles aus der Karte holen um im Bench besser dazustehen als AMD oder Intel? Oder umgekehrt. Hier ist die Kundschaft das Problem, nicht die Hersteller. Trotzdem haut ihr alle auf AMD, Intel und NV. Gibt es einen crazy Superlativ von sinnlos? Den auf die ganze Diskussion und die Umfrage würde der zutreffen.
OpenVMSwartoll
2022-09-20, 15:46:35
Natürlich weißt Du es besser als alle anderen. Nennt man Hybris.
Wenn wirklich Blackouts drohen sollten, kannst Du mit Deiner 600 W Karte nichts anfangen. Du bist hier nicht auf einer Insel als einziger Verbraucher.
MiamiNice
2022-09-20, 16:07:27
Ich bin im klassischen Sinne gar kein Energieverbraucher und bei uns gehen auch bei einem Blackout nicht die Lichter aus.
Aber das war nicht der Inhalt meines Postings.
Meine Aussage ist, das das ganze Gerede absolut sinnlos ist. Hersteller können scheinbar nicht effizienter und die überwiegende Masse an Kunden möchte lange Balken sehen.
Ob Du, das ganze 3DC oder sonst wer, das gerne anders hätte, ist am Markt gesehen irrelevant. Eine Diskussion darüber nichts anderes als Zeitverschwendung!
Hochmut ist btw. auch wenn man Herstellern vorschreiben möchte wie deren Produkte zu funktionieren haben, weil man es besser weiß. Oder anderen Menschen vorschreiben möchte wie viel Wattage er at home ziehen darf.
Also bist Du Deine eigene Hybris XD ;)
Lehdro
2022-09-20, 16:25:56
Wenn also die Effizienz nicht weiter steigt, dann wird es wohl daran liegen, das es aktuell nicht geht. Jeder der meint AMD, Intel und NV machen ihre Arbeit nicht anständig, weil der Verbrauch nur noch steigt, die Effizienz aber nicht, sollte eventuell mal bei AMD, Intel und NV, mit seiner Lösung für das Problem, vorsprechen.
Du weißt doch ganz genau dass das eben nicht stimmt. Quasi jede Gen war effizienter als der Vorgänger, trotz Mehrverbrauch, trotz teilweiser Fertigungstechnikstagnation. Es geht doch nur darum dass nun mittlerweile teilweise die Befürchtung vorherrscht dass eben sämtliche Hemmungen fallengelassen werden was den Mehrverbrauch angeht - anstatt eines, wie bisher, sanften Anstiegs sind einige Hersteller innerhalb weniger Jahre vom Verbrauch her komplett explodiert, nur halt ohne dass sich das irgendwie rechtfertigen ließe. Das dieser Vorgang bei allen Herstellern eben nicht das ganze Portfolio betrifft gibt dem Argument noch mehr Gewicht. Der Fokus der Hersteller stimmt dort einfach nicht mit der Realität der Verbraucher überein - Kritik an dem Vorgehen kommt nun wirklich von allen Seiten. Die sollten sich nicht wundern wenn diese Auswüchse zu solchen imo übergriffigen Reaktionen wie "Wattbegrenzungen" führen - selbst Schuld. Siehe Staubsauger, da konnten die Hersteller früher auch nur "mehr W = besser" als Verkaufsformel, kaum schreitet die Politik ein, ging es plötzlich auch anders. Müssen wir das wirklich herbeiführen?
Benchmarkwerte verkaufen sicherlich, aber diese Diskussion zeigt auch, dass sich die Prioritäten einiger Kunden vielleicht verändern. Das trifft nicht auf jeden Kunden zu, aber vielleicht auf immer mehr. Vor allem sind die Verbräuche ja auch erst seit 1-2 Generationen derart hoch gegangen, so dass das vorher kein so großes Thema war.
Ich schaue mittlerweile bei jeder neuen Grafikkarte, wie weit ich diese Undervolten kann ohne zu stark Performance zu verlieren. Dabei gehen die Verbräuche dann meist locker mal um 50-80W zurück während die Performance vielleicht um 5% leidet.
Wünsche mir mehrere Takt/Volt Kombinationen im Treiber mit Effizienzangaben dazu. Vor allem will ich das als Spieler auch von Spiel zu Spiel entscheiden, wie weit ich die Hardware ausreizen will. Der alte Klassiker von vor 10 Jahren läuft sicherlich auch auf sehr effizienten Takt und Volt Einstellungen mehr ausreichend flüssig. Vor allem da ja bei jedem auch der Monitor eine FPS Grenze setzt. In dieser Hinsicht macht AMD mit seinem Chill-Modus derzeit bei seinem Treiber einen besseren Job finde ich. Bin gespannt wie das bei der jetzt kommenden Generation wird!
MiamiNice
2022-09-20, 17:22:35
Wie kann die Vorstellung der Hersteller nicht passen - wenn sich die Hardware verkauft wie geschnitten Brot? Die Karten wurden sogar zu abstrusen Preisen verkauft, gar zeitweise zur doppelten UVP! Mein 2. Argument wäre: Wenn es so wäre wie Du sagts, wären die Hersteller ja blöd weitere Produkte zu bringen die genauso bzw. noch "schlimmer" sind.
Alleine das die Wattage nun durch die Bank überall hochgeht - zeigt doch das die "deutsche Meinung" kein Gewicht hat. Wir reden ja nicht über den kleinen Krauter aus´m Dorf, sondern über hoch professionelle Unternehmen mit mehreren Milliarden $ Umsatz. Ich bin, selbst als absoluter Laie in diesem Thema, sicher, wenn es sinnvoller oder einfach möglich wäre die Effizienz noch weiter zu steigern, wäre das schon umgesetzt.
Asaraki
2022-09-20, 18:20:27
Du bist dir als Laie sicher? :D na dann!
Ne du redest komplett am Punkt vorbei. Wenn Audi morgen ein Auto bringt, dass von Haus aus 80% mehr säuft für 1% mehr Leistung und man das erst von Hand anpassen muss, dann gäbe es zurecht einen Aufschrei.
Ist bei GPUs im Prinzip dasselbe - oder gar schlimmer, da sich viele gar nicht erst darum kümmern außer es wird zu laut
Rabiata
2022-09-20, 19:29:24
Wie kann die Vorstellung der Hersteller nicht passen - wenn sich die Hardware verkauft wie geschnitten Brot? Die Karten wurden sogar zu abstrusen Preisen verkauft, gar zeitweise zur doppelten UVP! Mein 2. Argument wäre: Wenn es so wäre wie Du sagts, wären die Hersteller ja blöd weitere Produkte zu bringen die genauso bzw. noch "schlimmer" sind.
Alleine das die Wattage nun durch die Bank überall hochgeht - zeigt doch das die "deutsche Meinung" kein Gewicht hat. Wir reden ja nicht über den kleinen Krauter aus´m Dorf, sondern über hoch professionelle Unternehmen mit mehreren Milliarden $ Umsatz. Ich bin, selbst als absoluter Laie in diesem Thema, sicher, wenn es sinnvoller oder einfach möglich wäre die Effizienz noch weiter zu steigern, wäre das schon umgesetzt.
AMD und Nvidia verkaufen schlicht das, was die Mehrzahl der Kunden haben will. Und das scheint bisher maximale Performance/Preis zu sein. Sparsamere Modelle kommen meist später (falls überhaupt) und als Verschnitt mit weniger Recheneinheiten. Ich vermute, daß es sich da zu einem Großteil um die Chips handeln, die beim Test für die "Vollversion" durchgefallen sind.
Persönlich wäre ich schon mit einem "Stromspar-BIOS" zufrieden, das man alternativ auf die GPU flashen kann. Wenn das dann stark nachgefragt wird, bringt es irgendwann jeder Hersteller. Die Beliebtheit ließe sich zum Beispiel an Downloadzahlen abschätzen. Vergleichbare Optionen finden sich zum Teil bei CPUs, da bringt der Verzicht auf 10% Performance oft eine massive Ersparnis beim Verbrauch.
Lehdro
2022-09-21, 14:45:11
Wie kann die Vorstellung der Hersteller nicht passen - wenn sich die Hardware verkauft wie geschnitten Brot? Die Karten wurden sogar zu abstrusen Preisen verkauft, gar zeitweise zur doppelten UVP!
Die letzten zwei Quartalszahlen von NV verpasst? Mining ist vorbei, also auch die Goldgräberstimmung im GPU Markt. Bin gespannt wie die nächsten 1-2 Jahre für die Hersteller aussehen.
Alleine das die Wattage nun durch die Bank überall hochgeht - zeigt doch das die "deutsche Meinung" kein Gewicht hat.
Wie gesagt, das die Wattage absolut steigt ist nicht das (oder mein) Problem. Sondern dass es stark zulasten der Effizienz geht. Eine 3090 Ti mit 375W ist im Bereich der Messungenauigkeit quasi gleichschnell wie eine mit 450W - was soll so etwas?
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.