PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Grafikkarten-Marktüberblick August 2023


Leonidas
2023-08-20, 16:43:33
Link zum Artikel:
https://www.3dcenter.org/artikel/grafikkarten-marktueberblick-august-2023

Orko
2023-08-21, 20:45:59
UHD Performance Index / Verbrauch:

Zitat: Wenn man sich nur auf die jeweiligen 4K-Indizes konzentriert ...
Dass der Generations-Sprung dennoch erfolgte, sieht man erst bei "Performance/Verbrauch", wo sich die neuen Beschleuniger auf Basis ihrer neueren 5nm-Fertigung ausreichend deutlich von den vorherigen Beschleunigern der 7nm-Generation (oder älter) absetzen können.

Trifft für alle NV Adas und AMD 7900s zu. Die 7600 reiht sich mit ihrem 6nm Prozess ziemlich nahtlos in die 7nm bzw 8nm Altgenerationen ein.

Zitat: Zugleich wäre aber auch anzumerken, dass diese Disziplin zu früheren Zeiten schon deutlich größere Unterschiede beim Aufkommen einer neuen Hardware-Generation bzw. Fertigungstechnologie gesehen hat. Der erreichte Energieeffizienz-Gewinn dieser Grafikkarten-Generation fällt im Vergleich zu früheren Generationen somit eher mittelprächtig aus.

Generationssprung Effizienzsteigerungen in UHD Performance Index / Verbrauch,
gemittelt über die Graphikkarten einer Generation:

+51% Kepler -> Maxwell
+77% Maxwell -> Pascal
+15% Pascal -> Turing
+21% Turing -> Ampere
+56% Ampare -> Ada

+47% Islands Chips -> Fiji Chip
+16% Fiji Chip -> Polaris und Vega
+73% Polaris und Vega -> RDNA1
+34% RDNA1 -> RDNA2
+41% RDNA2 -> RDNA3 nur die beiden 7900s (nicht die 7600)

Ich kann da nicht klagen.

Auf NV Seite deutlich besser als die letzten beiden Generationswechsel und auf Augenhöhe mit Kepler -> Maxwell. Nur Maxwell -> Pascal war deutlich besser.

Die 56% Effizienzgewinn bei NV halte ich daher für sehr gut. Mehr ist bei den aktuellen Prozessen wohl nicht drin, wenn man sich die Prozess-Effizienz-Steigerungen so anschaut, und die Zeitdauer bis neue Prozesse verfügbar werden.

Wenn wir bei jedem kommenden Graphikkarten-Generationssprung etwas um die +50% sehen würden, wäre das IMHO schon mehr, als realistisch erwartbar ist.

Bei AMD könnts ein kleines bisschen mehr sein, aber die 41% sind auch nicht wirklich schlecht. Hier stimme ich dem "mittelprächtig" zu.

Leonidas
2023-08-22, 06:14:27
Wo Du Recht hast .... ich habe es gefühlsmäßig beurteilt, Du hast die richtigen Zahlen rausgesucht.

NOFX
2023-08-22, 08:31:06
Bei nVidia waren es ja jetzt "anderthalb Fertigungsstufen", daher der gute Zuwachs Ada gegenüber Ampere und auch der geringe Gewinn von Ampere gegenüber Turing:

+21% Turing -> Ampere
+56% Ampare -> Ada

Iscaran
2023-08-22, 14:40:46
+51% Kepler -> Maxwell -> 28 nm
+77% Maxwell -> Pascal -> 16/14 nm
+15% Pascal -> Turing -> 12 nm
(12 nm ist AFAIK kein echter Sprung zu 14nm?)
+21% Turing -> Ampere -> 8/7 nm
+56% Ampere -> Ada -> 5 nm (4N)

+47% Islands Chips -> Fiji Chip (R300) -> 28 nm
+16% Fiji Chip -> Polaris und Vega -> 14/12/7 nm (Vega war teilweise 7nm)
+73% Polaris und Vega -> RDNA1 -> 7 nm
+34% RDNA1 -> RDNA2 -> 7/6 nm
+41% RDNA2 -> RDNA3 -> 6/5 nm


6nm ist ebenfalls kein Sprung zu 7nm.

Ist vielleicht auch ganz wichtig zur Beurteilung der Sprung"qualitäten".

Orko
2023-08-22, 16:43:26
@NOFX, Iscaran:
Ihr habt recht, dass der Effizienzzuwachs pro Generationen eine eher schlecht geeignete Metrik ist, um die Effizienz der aktuellen Graphikkarten Generation zu beurteilen. Es zählt ja primär das erreichte Level an sich.

Wenn die letzte Generation schwach (verbrachsintensiv) war, ist ein umso grösserer Sprung nötig. Wenn die letzte Generation stark (verbrauchseffizient) war, dann recht ggf auch ein unterdurchschnittlicher Effizienz-Zuwachs aus, um eine Spitzenposition zu erreichen.

Hier mal meine Zahlen:
arithmetisches Mittel über die repräsentativen* Graphikkarten einer Generation ( UHD Index [%] / Spieleverbrauch [W])

0,272 Kepler (ohne 750 und 750ti)
0,411 Maxwell (plus 750 und 750ti)
0,727 Pascal
0,837 Turing
1,011 Ampere
1,573 Ada

0,265 Islands Chips
0,390 Fiji Chip
0,452 Polaris und Vega (ohne die R7)
0,783 RDNA1
1,051 RDNA2
1,480 RDNA3, bisher nur die beiden 7900 (ohne die 7600)

Wenn ich das geometrische Mittel aus NV und AMD nehme,
und anhand dieser Werte eine exponentielle Kurve fitte**,
bekomme ich für die aktuelle Generation einen Wert von 1,527.
Das wäre sozusagen der aus historischer Sicht erwartbare Effizienzwert der aktuellen Generation.

NV liegt da mit ihren 1,573 um 2,97% darüber, und hat damit die Erwartungen etwas übertroffen.
AMD liegt mit ihren 1,480 um 3,10% darunter, und hat damit mit den beiden 7900 Karten die Erwartungen knapp nicht erreicht.
Die 7600 ist effizienztechnisch um eine komplette Generation abgeschlagen.
Da wäre mein Fazit :-)

Ausblick: Für die 2024/2025 Graphikkarten Generation (Blackwell, RDNA4?) wäre der erwartete Effizienzwert anhand der aktuellen Datenlage 2,144

-----------

* Ich hab hier die technologisch repräsentativen Karten genommen:
Die 750 und 750ti habe ich Maxwell und nicht Kepler zugeschlagen
Nur den Fiji Chip gewertet und nicht die zeitgleichen Refreshes der Islands Chips (200 und 300 Serien)
R7 nicht mit gewertet, da seiner Zeit voraus
7600 nicht mit gewertet, da seiner Zeit hinterher
Ansonsten alle Graphikkarten berücksichtigt für die Leo einen UHD Index erstellt hat
Ignoriert alle "low-end" Graphikkarten für die Leo keinen UHD Index erstellt hat weil zum damaligen Zeitpunkt für UHD zu leistungsschwach.

** Es ist Geschackssacht, ob man die Werte der aktuellen Generation in den Fit mit reinnimmt oder nicht. Ohne diese Werte ist es eine historisch fundierte Prognose anhand der vorhergegangenen Graphikkarten Generationen. Mit den Werten ist es keine astreine historische Prognose mehr, da in die Beurteilung der aktuellen Generation deren Werte ja bereits mit einfliessen. Aber die Datenbasis ist grösser und damit die Datenqualität etwas besser bzw aktueller. Ich hab hier die zweite Variante genommen.

Iscaran
2023-08-22, 23:04:37
@NOFX, Iscaran:
Ihr habt recht, dass der Effizienzzuwachs pro Generationen eine eher schlecht geeignete Metrik ist, um die Effizienz der aktuellen Graphikkarten Generation zu beurteilen. Es zählt ja primär das erreichte Level an sich.

Danke. Aber an dieser Stelle erstmal den Dank zurück, ich finde deine Herangehensweise an die Thematik seit langem mal äusserst interessant und gerade die Metrik, die du hier anfängst aufzubauen gefällt mir.


arithmetisches Mittel über die repräsentativen* Graphikkarten einer Generation ( UHD Index [%] / Spieleverbrauch [W])


Ich würde evtl. aufpassen, dass nur GPUs die mit demselben Prozessnode gefertigt wurden auch gemittelt werden.

Denn gerade die Fertigungsnodes haben ja einen sehr wesentlichen Einfluss auf die Effizienz.

Ich denke es wäre extrem wichtig hier die Prozessnodes zu differenzieren und nur GPUs die im selben Node sind zu mitteln. Zumindest den Hauptnodes wie 28 nm, 14 nm, 7 nm.


NV liegt da mit ihren 1,573 um 2,97% darüber, und hat damit die Erwartungen etwas übertroffen.
AMD liegt mit ihren 1,480 um 3,10% darunter, und hat damit mit den beiden 7900 Karten die Erwartungen knapp nicht erreicht.
Ausblick: Für die 2024/2025 Graphikkarten Generation (Blackwell, RDNA4?) wäre der erwartete Effizienzwert anhand der aktuellen Datenlage 2,144


+ - 3 % klingt nicht nach sehr viel? Wieso sind die Karten dann in den Tests soweit auseinander bei Perf/W?
Kannst du die Grafik dazu posten ?

Leonidas
2023-08-23, 01:25:56
Die Grafik dazu würde ich in der Tat gern sehen (und eventuell für die News übernehmen). Check dazu vorher, das auch wirklich alle Karten im "falschen" (untypischen) Node draussen sind. Danke!

Orko
2023-08-23, 02:54:58
+ - 3 % klingt nicht nach sehr viel? Wieso sind die Karten dann in den Tests soweit auseinander bei Perf/W?


Erst mal meine Antwort dazu.

Leos Artikel, Seite 2, letztes Balkendiagram "4K/2160p Performance/Verbrauch-Index (August 2023)"

Die beiden roten Balken der 7900XTX und 7900XT sind nur unwesentlich kürzer als die grünen Balken von 4090, 4080, 4070Ti, 4070, 4060Ti 16GB, 4060Ti 8GB, 4060. Der Unterschied ist zwar deutlich sichtbar, aber gering.

Den AMD Karten wird ja vor allem schlechte Effizienz im Idle, Teillast, Multimonitorbetrieb vorgeworfen. Die Daten hier (UHD-Index, Spieleverbrauch) geben aber explizit nur den Gaming-Betrieb wieder, und enthalten damit nicht die Disziplinen die bei AMD aktuell problematisch sind.

Orko
2023-08-23, 04:28:55
Datenbasis
(Ich hoffe ich hab da nicht allzuviele Fehler drin)

Die mit * gekennzeichneten Werte liegen nicht explizit als UHD Index vor,
sondern wurden von mir aus den vorliegenden FHD Indices interpoliert.

Nvidia, 2012+2013, Kepler, alle 28nm
680: 45* [% UHD Index] / 169 [W] = 0,266
670: 41* / 143 = 0,288
780Ti: 68 / 245 = 0,278
780: 55 / 198 = 0,278
770: 48* / 175 = 0,271
760: 39* / 155 = 0,250
arithmetisches Mittel: 0,272

AMD, 2012+2013, Islands Chips, alle 28nm
7970 GHz Edition: 55 / 235 = 0,234
7970: 50* / 189 = 0,262
7950: 43* / 147 = 0,290
290X: 74 / 276 = 0,268
290: 68 / 242 = 0,281
280X: 53 / 213 = 0,249
280: 46* / 189 = 0,244
270X: 41* / 140 = 0,291
arithmetisches Mittel: 0,265

Nvidia, 2014, Maxwell, alle 28nm
980ti: 100 / 236 = 0,424
980: 77 / 174 = 0,443
970: 63 / 161 = 0,391
960: 42* / 109 = 0,385
arithmetisches Mittel: 0,411

AMD, 2015, Fiji Chip, 28nm
Fury X: 100 / 289 = 0,346
Fury: 91 / 256 = 0,355
Nano: 86 / 183 = 0,470
arithmetisches Mittel: 0,390
Die Datenbasis ist hier mit nur 3 Werten die stark streuen natürlich sehr schwach.

AMD, 2015
3xx Serie nicht berücksichtigt da Refresh der Islands Chips,
und damit technologisch rückständig

Nvidia, 2016, Pascal, alle 14/16nm
1080Ti: 173 / 236 = 0,733
1080: 132 / 174 = 0,759
1070Ti: 122 / 174 = 0,701
1070: 107 / 147 = 0,728
1060 6GB: 76 / 117 = 0,650
1050Ti: 46* / 59 = 0,786
1050 3GB: 44* / 60 = 0,730
arithmetisches Mittel: 0,727

AMD, 2016+2017, Polaris + Vega, alle 14/16nm
Vega 64: 132 / 297 = 0,444
Vega 56: 117 / 223 = 0,525
590: 87 / 221 = 0,394
580 8GB: 80 / 193 = 0,415
570 8GB: 70 / 165 = 0,424
560: 40* / 85 = 0,475
480 8GB: 75 / 164 = 0,457
470: 66 / 138 = 0,478
arithmetisches Mittel: 0,452

AMD, 2017, Vega R7, 7nm
nicht berücksichtigt da mit 7nm technologisch ihrer Zeit voraus
Die Werte wären:
Vega R7: 177 / 281 = 0,630
Und diese 0,630 passen weder zu den 14/16nm Vegas, noch zu den 7nm RDNA1

Nvidia, 2018+2019, Turing, alle 12nm
2080Ti: 239 / 271 = 0,882
2080 Super: 205 / 248 = 0,827
2080: 186 / 228 / 0,816
2070 Super: 178 / 217 = 0,820
2070: 151 / 173 = 0,873
2060 Super: 148 / 176 = 0,841
2060 12GB: 141 / 160 = 0,881
1660Ti: 103 / 117 = 0,880
1660 Super: 101 / 126 = 0,802
1660: 89 / 115 = 0,774
1650 Super: 79* / 100 = 0,794
1650 GDDR6: 62* / 73 = 0,856
arithmetisches Mittel: 0,837

AMD, 2019, RDNA1, alle 7nm
5700XT: 167 / 218 = 0,766
5700: 149 / 175 = 0,851
5600XT 14Gbps: 120 / 140 = 0,857
5500Xt 8GB: 84 / 128 = 0,656
arithmetisches Mittel: 0,783

Nvidia, 2020+, Ampere, alle 8nm
3090Ti: 410 / 462 = 0,887
3090: 376 / 359 = 1,047
3080Ti: 366 / 350 = 1,046
3080 10GB: 330 / 325 = 1,015
3070Ti: 271 / 292 = 0,928
3070 250 / 221 = 1,131
3060Ti: 217 / 202 = 1,074
3060: 165 / 172 = 0,959
arithmetisches Mittel: 1,011

AMD, 2020+, RDNA2, alle 7nm
6950XT: 368 / 348 = 1,057
6900XT: 348 / 303 = 1,149
6800XT: 322 / 298 = 1,081
6800: 278 / 231 = 1,203
6750XT: 234 / 221 = 1,059
6700XT: 221 / 219 = 1,009
6700: 186 / 189 = 0,984
6650XT: 167 / 177 = 0,944
6600XT: 159 / 159 = 1,000
6600: 134 / 131 = 1,023
arithmetisches Mittel: 1,051

Nvidia, 2022+, Ada, alle 5nm
4090: 675 / 418 = 1,615
4080 16GB: 510 / 297 = 1,717
4070Ti 12GB: 400 / 267 = 1,498
4070 12GB: 324 / 193 = 1,679
4060Ti 16GN: 235 / 160 = 1,469
4060Ti 8GB: 230 / 151 = 1,523
4060: 187 / 124 = 1,508
arithmetisches Mittel: 1,573

AMD, 2022+, RDNA3, alle 5nm
7900XTX: 530 / 351 = 1,510
7900XT: 448 / 309 = 1,450
arithmetisches Mittel: 1,480
Die Datenbasis mit nur 2 Werten ist natürlich sehr schwach.
Mit den Navi 32 Chips sollte es dann mehr Werte geben.
Die 7600 ist nicht brücksichtigt da technologisch rückständig;
ihre Werte wären: 175 / 160 = 1,094

Orko
2023-08-23, 04:40:07
Zusammenfassung:

Jahr | Generationen | NV Effizienz | Generations Gewinn | AMD Effizienz | Generationsgewinn | geometrisches Mittel Effizienz NV und AMD | exponentieller Fit
2012/13 | Kepler, Island Chips | 0,272 | | 0,265 | | 0,268 | 0,280
2014/15 | Maxwell, Fiji | 0,411 | +51% | 0,390 | +47% | 0,400 | 0,393
2016/17 | Pascal, Polaris+Vega | 0,727 | +77% | 0,452 | +16% | 0,573 | 0,552
2018/19 | Turing, RDNA1 | 0,837 | +15% | 0,783 | +73% | 0,809 | 0,775
2020/21 | Ampere, RDNA2 | 1,011 | +21% | 1,051 | +34% | 1,031 | 1,088
2022/23 | Ada, RDNA3 | 1,573 | +56% | 1,480 | +41% | 1,526 | 1,527
2024/25 | ? Blackwell, ? RDNA4 | ????? | | ????? | | | 2,144


(Das mit dem geometrischen Mittel dient mir nur zur Vereinfachung der Rechnung.
Eine exponentielle Regression über die 6 Nv Effizienz Werte plus die 6 AMD Effizienz Werte
liefert exakt dieselben Fitwerte)

Orko
2023-08-23, 05:24:34
Plots
https://abload.de/img/plot1fifty.jpg
https://abload.de/img/plot20les3.jpg

schön sichtbar in der Retroperspektive:
- wie überdurchschnittlich effizient Pascal seinerzeit war
- wie ineffizient Polaris und Vega seinerzeit waren
- und wie zügig sich beide (NV und AMD) danach wieder auf dem gemeinsamen Effizienzpfad eingefunden haben

auch schön sichtbar:
Die Effizienz verdoppelt sich ziemlich genau alle 2 Generationen bzw alle 4 Jahre

NOFX
2023-08-23, 07:38:15
@Orko: Sehr schön aufbereitet! (y)

Die 750Ti konnte ja schon einen schönen Vergleich des Effizienzsprungs von Maxwell im vergleichbaren 28 nm Prozess zur Kepler liefern. Dazu kam mit der "echten" Kepler-Generation noch der Sprung auf 14 nm.

Platos
2023-08-23, 07:53:52
Naja, Pascal hatte eine neue Fertigung(full node), bei Turing gabs keine viel bessere Fertigung und bei Ampere gabs die Samsung-Fertigung, der keine gute Effizienz nachgesagt wird.


Dazu kommt noch: Gerade die Top-Dog Grafikkarten werden (mittlerweile) weit weg von einem "vernünftigen" Stromverbrauch betrieben. Mit einem vernünftigeren Betriebstzustand könnte man mit nur wenig Perfomanceverlust mächtig an Effizienz gewinnen. Das Verhältniss von Generation zu Generation unterscheidet sich abseits von Top-Dogs dadurch aber anscheinend nicht grossartig. Man kann aber durch untervolten & übertakten einfach mal die Effizienz der Nachfolgergeneration erreichen oder sogar überbieten.

Bei mir gabs von einer untervolteten& übertakteten 1070Ti zu einer untervolteten& übertakteten 4070Ti eine Effizientsteigerung von 2.22-Fach (4k index mit meinen Stromverbräuchen). Also etwas besser wie doppelte Perfomance (natürlich betrachtet ohne Upscaling usw.).

Würde ich meine 4070Ti nicht untervolten & übertakten, wäre die Effizienz im Vergleich zu meiner untervolteten & übertakteten 1070Ti nur bei 1.41- Fach.

Also damit will ich sagen: Effizienzvergleiche sind immer schwierig, da man Gefahr läuft, gar nicht wirklich Fertigung & Architektur zu Testen, sondern eben einfach nur einen ineffizienten Betriebszustand mit einem effizienten.

Man müsste fast für jede Grafikkarte einen Spannung/Taktverlauf machen. Da man aber dann wiederum nur Silicon-lottery betreibt, müsste man von jeder Karte ~ 10 Stück oder so nehmen.

NOFX
2023-08-23, 08:21:54
@Platos: Das mit den Top Dogs ist nur nötig, wenn es Konkurrenz gibt. Die erste Titan war zum Beispiel so ein Fall, auch die 4090 ist ja recht moderat und noch nahe des Sweetspots.

Gegenbeispiele sind natürlich die 290X/390X oder die 3090 Ti und die 6950XT, die waren einfach zu hoch geprügelt.


Aber im Allgemeinen ist die 4000er Generation von der 4070 Ti abgesehen (die wäre mit 230 W auch gut bedient und kaum langsamer) ja sehr konservativ ausgelegt. Bei AMD würden sich -10-15% PT auch gut auf die Effizienz auswirken, da läge man aber dann nicht mehr so gut im Vergleich.

Orko
2023-08-23, 09:36:42
... und bei Ampere gabs die Samsung-Fertigung, der keine gute Effizienz nachgesagt wird.

Sehe ich genauso.


Also damit will ich sagen: Effizienzvergleiche sind immer schwierig, da man Gefahr läuft, gar nicht wirklich Fertigung & Architektur zu Testen, sondern eben einfach nur einen ineffizienten Betriebszustand mit einem effizienten.


Deshalb ganz stumpf das bewertet was die Hersteller in den Markt entlassen haben, also das Gesamtpaket aus Architektur & vom Hersteller gewählter Fertigung & vom Hersteller gewähltem Betriebspunkt. Die Mittelwertbildung über die Karten jeder Generation entspricht damit im wesentlichen einer Mittelwertbildung über die vom Hersteller gewählten Betriebspunkte der einzelnen Graphikkarten.

Ich finde es eher interessant, dass trotzdem jede Generation einen ziemlich charakteristischen Effizienz-Footprint aufweist. Und dass sich trotz all der Differenzen in Fertigung und Architektur inzwischen ein schöner exponentieller Verlauf herauskristallisiert hat. Vor 4 Jahren hätte ich mich nicht getraut, in die Daten einen solchen hineinzufitten, oder gar eine Effizienz-Erwartung für die kommende Generation abzuleiten.

Iscaran
2023-08-23, 10:25:07
@Orko:

TOP Arbeit!

Allerdings würde es ggf. Sinn machen die GCN4 (Polaris) und GCN5 (Vega) getrennt anzusehen?

Zumindest wäre es mal interessant beide Werte zu sehen. Ich vermute GCN5 ist etwas besser als GCN4?

Interessant ist hier eher dass im Mittel eigentlich nur PASCAL herausragend gut Effizienz hatte (relativ zum zeitgleichen Konkurrenten).

Gast
2023-08-24, 15:59:50
So lange man keine realen Performance und Verbrauchswerte der Karten verwendet sind all diese Effizienzrechnungen umsonst.

Orko
2023-08-24, 17:11:53
@Orko:
Allerdings würde es ggf. Sinn machen die GCN4 (Polaris) und GCN5 (Vega) getrennt anzusehen?

Zumindest wäre es mal interessant beide Werte zu sehen. Ich vermute GCN5 ist etwas besser als GCN4?


Polaris, kein Problem:
590: 87 / 221 = 0,394
580 8GB: 80 / 193 = 0,415
570 8GB: 70 / 165 = 0,424
560: 40* / 85 = 0,475
480 8GB: 75 / 164 = 0,457
470: 66 / 138 = 0,478
arithmetisches Mittel: 0,441

Vega (ohne R7):
Vega 64: 132 / 297 = 0,444
Vega 56: 117 / 223 = 0,525

Zu wenig Datenpunkte, und diese sind zu unterschiedlich.
Rein formal lässt sich natürlich der Mittelwert bilden, doch das ist dann IMHO nur Zahlenmystik.
Ich würde es so formulieren:

Der Effizienz Footprint der 14/16nm Vegas liegt höchstwahrscheinlich im Bereich 0,444 ... 0,525.
Ein exakter(er) Werst lässt sich anhand der verfügbaren Datenbasis nicht bestimmen.


So lange man keine realen Performance und Verbrauchswerte der Karten verwendet sind all diese Effizienzrechnungen umsonst.

Ich erachte die von Leo zusammengetragenen 3DCenter Performance Indices und die gemittelten Spiele Verbrauchswerte als das solideste was an Daten verfügbar ist. Besser als jeder synthetische Benchmark, und besser als jeder Einzelbenchmark (anhängig von Spiel, System, Settings, Tester, Treiberversion, Graphikkarten-Bios, Zeitpunkt, ...).

Könntest du erklären, was genau dir an diesen Werten zu wenig real ist?


Die von mir interpolierten UHD Indices (extra alle mit * markiert) lassen sich natürlich kritisieren.
Da die verwendeten Verbrauchswerte ja solide vorliegen, habe ich eine grössere Datenbasis für die Mittelwertbildung als vorteilhafter erachtet als eine unangreifbare Objektivität der Methodik.

Es würde mich interessieren, zu welchem Ergebnis jemand anders anhand der Daten kommt (eigene Methodik der Auswahl und Verarbeitung der Daten).

Gast
2023-08-24, 22:15:46
Ich erachte die von Leo zusammengetragenen 3DCenter Performance Indices und die gemittelten Spiele Verbrauchswerte als das solideste was an Daten verfügbar ist.

Die Verbrauchswerte sind kompletter schwachsinn, die 4090 in 1080p mit 420W, was kompletter nonsens ist, in 1080p sind bei einer 4090 eher 200-250W realistisch.

Verbrauchswerte kann man nur für die Effizienzberechnung benutzen wenn diese auch zugleich mit der Performance ermittelt.

Was hier gemacht wird sind near max. Verbrauchswerte mit AVG. Performancewerte zu verrechnen.

Der einzige der irgendwie sinnvolle Effizienzwerte errechnet ist Igor, der misst wirklich gleichzeitig Performance und Verbrauch.

So gut wie alle anderen Reviews kann man für Effizenzberechnungen nicht verwenden.

Im schlimmsten Fall werden die Verbrauchswerte sogar mit Furmark ermittelt und dann mit der Spieleperformance gegengerechnet, und selbst wenn das nicht der Fall ist, hat man entweder eine oder vielleicht eine Hand voll Verbrauchswerte, die dann mit 20-30 Spielen gegengerechnet werden, und keine Garantie dass die Verbrauchswerte auch über die gesamte Benchmarksequenz ermittelt werden.

Leonidas
2023-08-25, 05:08:50
Verbrauchswerte kann man nur für die Effizienzberechnung benutzen wenn diese auch zugleich mit der Performance ermittelt. Was hier gemacht wird sind near max. Verbrauchswerte mit AVG. Performancewerte zu verrechnen.

Da hast Du Recht. Es sind "near-Max-Werte", die eben nicht auf alle Spiele zutreffen und auch den niedrigeren Verbrauch bei niedrigeren Auflösungen schlecht beachten. Das von Dir gebrachte Beispiel ist allerdings auch extrem, meistens sind die Unterschiede zwischen den Auflösungen kleiner. Erwischt man zudem ein wirklich forderndes Spiel, kann es auch keinen Unterschied zwischen den Auflösungen geben.

Aber der größere Punkt ist sicherlich, dass die Verbrauchswerte "near-Max" sind, wie so schön von Dir formuliert. Normalerweise müsste man jedoch zu diesen Verbrauchswerten, die man (für jedes einzelne Spiel) auftestellt, auch immer für jedes einzelne Spiel einen Performance-Test bringen. Erst dann wäre es wirklich gut.

Doch: Jetzt zeige mir bitte auch nur einen Test in der Welt, wo alle die genannten Grafikkarten derart erfasst wurden: Mit Performance und Stromverbrauch, von HD7000 bis RX7000, von Kepler bis Ada. Und natürlich über eine gute Anzahl von Spielen, damit man nicht an den Ergebnissen einzelner Meßreihen. Und eigentlich auch noch einer Vorarbeit, die begründet, wie sinnvoll es ist, eine 680 und 7970 heute unter modernen Spielen auszumessen.

In der Summe: Was Du haben willst, gibt es nicht. Und wird es auch nie geben, denn niemand kann sinnvoll Stromverbrauch und Performance einer 680/7970 unter heutigen Spielen bestimmen. Mit Deiner Methode ist kein derart weit Generations-übergreifender Vergleich möglich, sondern nur ein Vergleich mit den jeweils letzten 1-2 Generation.

Führt zum Fazit: Die von Dir genannte Methode wäre theoretisch besser, ist aber praktisch nicht durchführbar - und wurde auch praktisch nie durchgeführt, entsprechende Werte liegen also nicht vor. Ergo kann man nur zur zweitbesten Methode schreiten und vorhandene und durchaus solide Index-Werte nehmen. Damit erreicht man wenigstens eine gewisse Sicherheit, dass die hier benutzten Werte zum Zeitpunkt des jeweiligen Produkts die Performance und den Stromverbrauch unter seinerzeitigen Bedingungen recht gut beschrieben haben. Mehr ist leider mit vorliegenden Daten einfach nicht möglich.

Gast
2023-08-25, 08:23:05
Da hast Du Recht. Es sind "near-Max-Werte", die eben nicht auf alle Spiele zutreffen und auch den niedrigeren Verbrauch bei niedrigeren Auflösungen schlecht beachten. Das von Dir gebrachte Beispiel ist allerdings auch extrem, meistens sind die Unterschiede zwischen den Auflösungen kleiner. Erwischt man zudem ein wirklich forderndes Spiel, kann es auch keinen Unterschied zwischen den Auflösungen geben.


Selbst im neuesten GPU-Mörder ist eine 4090 weit von den 420W entfernt die du ihr einfach pauschal aufdrückst: https://youtu.be/FbJA-P3sRgo?t=1138

Und das in 4k, niedrigere Auflösungen sind noch mal deutlich weiter davon entfernt.


Man muss sich deine Graphen nur mal mit etwas Hausverstand betrachten, und man erkennt sofort dass sie nicht stimmen können. Im 4k Diagramm sieht man alle Ampere Karten auf ähnlichem Niveau, ein paar etwas näher am Sweetspot ein paar etwas weiter weg, so wie man es erwarten würde.

Dann sieht man den 1080p Graph und die 4090 ist plötzlich auf Ampere-Niveau. Da müssen sofort die Alarmglocken schrillen dass irgendwas nicht stimmen kann.



Aber der größere Punkt ist sicherlich, dass die Verbrauchswerte "near-Max" sind, wie so schön von Dir formuliert. Normalerweise müsste man jedoch zu diesen Verbrauchswerten, die man (für jedes einzelne Spiel) auftestellt, auch immer für jedes einzelne Spiel einen Performance-Test bringen. Erst dann wäre es wirklich gut.



Doch: Jetzt zeige mir bitte auch nur einen Test in der Welt, wo alle die genannten Grafikkarten derart erfasst wurden: Mit Performance und Stromverbrauch, von HD7000 bis RX7000, von Kepler bis Ada.


Igorslab macht das seit einiger Zeit in jedem Grafikkartenreview.
Und nicht nur mit Endwerten, sondern mit Grafiken in denen man fast Framegenau sehen kann wie schnell eine einzelne Karte ist und wieviel sie dabei verbraucht.


Das ganze ändert aber vor allem nichts daran, dass die von dir gezeigten Werte schlicht und einfach falsch sind, und falsche Werte zu veröffentlichen ist immer eine falsche Entscheidung. Wenn du keine besseren Rohdaten hast gibt es die Möglichkeiten:

- Bessere Rohdaten suchen
- Bessere Rohdaten selbst erstellen
- Sich eingestehen dass man über den gewünschten Sachverhalt keine ehrliche Aussage tätigen kann un diesen einfach aus dem Artikel entfernen.

Dein Verhalten erinnert stark an das LTT-Debakel "Ja wir wissen eh dass unsere Werte und damit Schlussfolgerungen falsch sind, aber wir wollen keinen Aufwand betreiben die richtigen Werte zu ermitteln, aber weglassen wollen wir sie auch nicht".
Oder auch an ein trotziges Kind, dass sich am Taschenrechner vertippt und darauf besteht, dass das Ergebnis richtig ist, es hat ja schließlich eine Rechenmaschine ermittelt und die machen keinen Fehler, obwohl jeder der sich mit dem Sachverhalt auskennt sofort erkennt dass es nicht stimmen kann.

Leonidas
2023-08-25, 09:45:08
Dann sieht man den 1080p Graph und die 4090 ist plötzlich auf Ampere-Niveau. Da müssen sofort die Alarmglocken schrillen dass irgendwas nicht stimmen kann.

Und Du meinst nicht, dass das auch ein Einzelfall sein könnte? Sicherlich gibt es Unterschiede - aber wenn Dimensionsunterschiede auftauchen, würde ich erstmal da suchen. Zudem ist die 4090 ein schlechtes Beispiel, die Karte dürfte kaum von FullHD-Gamern benutzt werden. Tut mir leid, aber hast Du kein substantielles Beispiel, was man nicht sofort entkräften kann? Ich bin gern bereit, neues zu lernen und alte Weisheiten über Bord zu werfen.



Igorslab macht das seit einiger Zeit in jedem Grafikkartenreview.

Deine Antwort erging direkt an meine Fragestellung: Wo ist das von HD7900 bis RX7000 zu sehen? Auf genau diesen Punkt hast Du mit diesem Beispiel nicht geantwortet. So exzellent die Arbeit von Igor in dieser Frage ist, nützt jene nicht bei einem angestrebten Multigenerations-Vergleich.



- Bessere Rohdaten suchen
- Bessere Rohdaten selbst erstellen
- Sich eingestehen dass man über den gewünschten Sachverhalt keine ehrliche Aussage tätigen kann un diesen einfach aus dem Artikel entfernen.

1) gibt es nicht
2) habe ich keinerlei Möglichkeit dazu
3) wäre ich vorsichtig, bereits jetzt zu schlußfolgern. Wir diskutieren noch über den Fakt, da ist ein Fazit noch weit weg.



Dein Verhalten erinnert stark an das LTT-Debakel "Ja wir wissen eh dass unsere Werte und damit Schlussfolgerungen falsch sind, aber wir wollen keinen Aufwand betreiben die richtigen Werte zu ermitteln, aber weglassen wollen wir sie auch nicht".

Ich wäre vorsichtig damit, solcherart finale Behauptungen aufzustellen, so lange Du Deinen Standpunkt nicht so beweisen konntest, dass es auch ich nicht leugnen kann. Nur dass Du von Deinem Standpunkt bzw. Deiner eigenen Beweislage überzeugt bist, reicht dafür nicht aus. Die Beweislage muß so gut sein, dass ich überzeugt werden kann.

Gast
2023-08-25, 11:37:38
Und Du meinst nicht, dass das auch ein Einzelfall sein könnte?


Ich verstehe nicht was du bei der Verrechnung unzähliger Werte mit "Einzelfall" meinst.




Zudem ist die 4090 ein schlechtes Beispiel, die Karte dürfte kaum von FullHD-Gamern benutzt werden.


Warum gibt es dann überhaupt Werte für die 4090 in 1080p, wenn diese doch so irrelevant sind?
Und auch in 1440p ist die Abweichung immer noch signifikant, wenn auch in einem Bereich dass man ein Übersehen beim schnellen Blick auf die Grafik noch entschuldigen kann.

Ich persönlich würde diese Auflösungen auch für eine 4090 nicht als insignifikant bezeichnen, HFR-Monitore in 4k sind ziemlich rar, und wenn man richtig hoch gehen will dann bleibt nur 1080p zur Auswahl, zumal auch eine 4090 meistens nicht die Power für richtig hohe Refreshrates in 4k hätte.


Tut mir leid, aber hast Du kein substantielles Beispiel, was man nicht sofort entkräften kann?

Wenn deine Anforderungen 1 Beispiel ist, habe ich das im letzten Posting mit dem Link zu Immortals schon gebracht.
Ja es ist nur ein Beispiel, aber mehr willst du ja augenscheinlich auch nicht.




Deine Antwort erging direkt an meine Fragestellung: Wo ist das von HD7900 bis RX7000 zu sehen?


Genau da würde ich jetzt einen Mangel an Relevanz sehen. Was für einen Sinn macht es Grafikkarten zu vergleichen die viele Generationen auseinander sind und selbst unter Einbezug des Gebrauchtmarktes nicht wirklich parallel am Markt existieren?

Zumal es sehr wahrscheinlich ist dass über diesen langen Zeitraum die Performancezahlen überhaupt nicht stimmen, um die Performance zu vergleichen müsste man die HD7900 und RX7000 mit den selben Spielen testen und vergleichen, nur verwenden die heutigen RX7000-Tests ganz andere Spiele als damals mit der HD7900.

Und zumindest diese könnte man durchaus einigermaßen ermitteln, es gibt sie zwar nicht oft aber durchaus Artikel die über einen gemeinsamen Benchmarkparcours Grafikkarten vieler Generationen gegeneinander antreten lassen.


1) gibt es nicht


Vermutlich, aber hast du auch überall nachgeschaut?


2) habe ich keinerlei Möglichkeit dazu


Diese Möglichkeit gibt es immer, klar es ist ein enormer zeitlicher sowie auch finanzieller Aufwand. Möglich wäre es dennoch.


3) wäre ich vorsichtig, bereits jetzt zu schlußfolgern. Wir diskutieren noch über den Fakt, da ist ein Fazit noch weit weg.


Ich wäre vorsichtig damit, solcherart finale Behauptungen aufzustellen, so lange Du Deinen Standpunkt nicht so beweisen konntest, dass es auch ich nicht leugnen kann. Nur dass Du von Deinem Standpunkt bzw. Deiner eigenen Beweislage überzeugt bist, reicht dafür nicht aus. Die Beweislage muß so gut sein, dass ich überzeugt werden kann.

Wenn du jetzt tatsächlich mit Russels Teekanne kommst, brauchen wir nicht weiter zu diskutieren.

Wenn du Zahlen und Schlussfolgerungen veröffentlichst, ist es deine Aufgabe nachvollziehbar zu beweisen wie du dazu kommst, und zwar in einer Form in der ein 3. dein Experiment nachstellen und deine Ergebnisse reproduzieren könnte.

Es ist nicht meine Aufgabe das Gegenteil zu beweisen, so lange du nicht deine Behauptung beweisen kannst.

Nebenbei habe ich schon Fälle aufgezeigt in denen deine Behauptung einfach nicht stimmt, es wäre deine Aufgabe zu Beweisen dass dies Einzelfälle sind die auf das Gesamtergebnis keinen statistisch signifikanten Einfluss haben.

Leonidas
2023-08-25, 16:02:00
Ich verstehe nicht was du bei der Verrechnung unzähliger Werte mit "Einzelfall" meinst.

Ein einzelnes Spiel, wie Du selber in Deinem Text angibst. Sind es mehr in dem Video? Du hattest Dich in Deinem Text auf ein einzelnes Spiel bezogen.



Warum gibt es dann überhaupt Werte für die 4090 in 1080p, wenn diese doch so irrelevant sind?

Weil jene wissenswert sind für den Vergleich mit Grafikkarten, für die es keine 4K-Werte gibt. Aber dies ändert nichts daran, dass jene FHD-Werte bei der 4090 keine Praxisrelevanz haben.




Wenn deine Anforderungen 1 Beispiel ist, habe ich das im letzten Posting mit dem Link zu Immortals schon gebracht.
Ja es ist nur ein Beispiel, aber mehr willst du ja augenscheinlich auch nicht.

Ich habe es doch entkräftet - und fragte daher nach einem weiteren Beispiel.




Genau da würde ich jetzt einen Mangel an Relevanz sehen. Was für einen Sinn macht es Grafikkarten zu vergleichen die viele Generationen auseinander sind und selbst unter Einbezug des Gebrauchtmarktes nicht wirklich parallel am Markt existieren?

Hier dürfte Dein Irrtum liegen. Es geht nicht darum, was Du als besseren/schlechteren Vergleich einschätzt. Dieser große, Generations-übergreifende Vergleich war die Zielsetzung, das komplette Thema. Ergo genau dieser Punkt, um welchen man nicht diskutieren kann. Das Thema mag Dich dann vielleicht nicht interessieren - aber das spielt keine Rolle, es war nun einmal so gesetzt.



Vermutlich, aber hast du auch überall nachgeschaut?

Glaube mir, wenn ich sage, dass ich eine recht gute Kenntnis darüber habe, wenn irgendwer irgendwo Benchmark-Werte in Reihe ins Internet stellt. Nein, ich kann nicht wissen, ob irgendwo in irgendwelchen Foren irgendwelche Benchmark-Heldentaten passieren sollten. Aber wenn reguläre Webseiten was veröffentlichen, bekomme ich das früher oder später mit. Allein die Arbeit an den Launch-Analysen bringt es automatisch mit sich, dass ich faktisch alle Benchmarks erstellenden Webseiten deutscher und englischer Sprache und die wichtigsten in den anderen Sprache kenne.



Diese Möglichkeit gibt es immer, klar es ist ein enormer zeitlicher sowie auch finanzieller Aufwand. Möglich wäre es dennoch.

Mir ist es zumindest zweifelsfrei nicht möglich. Brauche ich gar nicht drüber nachdenken.




Wenn du Zahlen und Schlussfolgerungen veröffentlichst, ist es deine Aufgabe nachvollziehbar zu beweisen wie du dazu kommst, und zwar in einer Form in der ein 3. dein Experiment nachstellen und deine Ergebnisse reproduzieren könnte.

Es ist nicht meine Aufgabe das Gegenteil zu beweisen, so lange du nicht deine Behauptung beweisen kannst.

Bin mir nicht sicher, ob man das so stehen lassen kann. Normalerweise müsste der Herausforderer irgendwas beweisen. Du kannst mich natürlich immer herausfordern, mein "Experiment" nachvollziehbar zu gestalten - aber das würde ich aus reinem Zeitaufwand auch nur dann tun, wenn Du mir einen Anlaß lieferst, in Form einer möglichen Schwäche meiner Ergebnisse.

Bist Du wirklich sicher, dass ich auf Zuruf von außen plötzlich alles belegen und beweisen muß? Und damit meine ich nicht einfach nur schnell mal ein paar Links, sondern ich soll den Beweis liefern, dass Deine Gegenthese nicht korrekt ist und meine Werte Bestand haben. Ich glaube, es läuft normalerweise umgekehrt.




Nebenbei habe ich schon Fälle aufgezeigt in denen deine Behauptung einfach nicht stimmt, es wäre deine Aufgabe zu Beweisen dass dies Einzelfälle sind die auf das Gesamtergebnis keinen statistisch signifikanten Einfluss haben.

Nicht in diesem Thread. Du hattest vorstehend ein Beispiel, was ich entkräftet habe, ohne überhaupt die Quelle lesen zu müssen. Ich bat um weitere Beispiele. Dies ist der aktuelle Stand.

Gast
2023-08-25, 22:14:26
Ein einzelnes Spiel, wie Du selber in Deinem Text angibst. Sind es mehr in dem Video? Du hattest Dich in Deinem Text auf ein einzelnes Spiel bezogen.



Ich brauche nur ein einziges Spiel um deine These zu widerlegen.




Weil jene wissenswert sind für den Vergleich mit Grafikkarten, für die es keine 4K-Werte gibt. Aber dies ändert nichts daran, dass jene FHD-Werte bei der 4090 keine Praxisrelevanz haben.


Da musst du dich schon entscheiden, sind die Werte relevant oder nicht, einmal ja, einmal nein ist ein Widerspruch in sich.
Ich würde ihnen ja generell nicht die Relevanz absprechen, die kommmenden 500Hz Monitore sind beispielweise auch nur FullHD und verlangen nach einer potenten Grafikkarte um bespielt zu werden.





Ich habe es doch entkräftet - und fragte daher nach einem weiteren Beispiel.


Negieren ist kein entkräften.

Aber ja es gibt genug weitere Beispiele:
https://www.igorslab.de/nvidia-geforce-rtx-4090-founders-edition-24gb-im-test-der-kraftstrotzende-monolith-der-aus-der-kaelte-kam/4/

Ein einziger Benchmark trifft die 420W und ein weiterer ist in der Nähe, selbstverständlich nur in 4k. In 1440p ist nicht mal ein einziger über 350W.



Glaube mir, wenn ich sage, dass ich eine recht gute Kenntnis darüber habe, wenn irgendwer irgendwo Benchmark-Werte in Reihe ins Internet stellt.


Glaube ich dir, dennoch entsteht dermaßen viel Content im Internet, dass schon heute jemand einen entsprechenden Test online gestellt haben könnte.


Mir ist es zumindest zweifelsfrei nicht möglich. Brauche ich gar nicht drüber nachdenken.


Es wäre zweifelsfrei möglich, es wäre eine Heidenarbeit und es ist absolut verständlich dass du dir diese nicht antun willst, nur dann veröffentliche keine Sachen die du nicht wissen kannst.

Ich kann auch nicht Stabhochspringen, und würde mir niemals anmaßen über die korrekte Technik im Stabhochspringen einen Artikel zu verfassen, nur weil ich mir 1000e Stunden an Leichtathletik angesehen habe.





Bin mir nicht sicher, ob man das so stehen lassen kann. Normalerweise müsste der Herausforderer irgendwas beweisen.


Ähm nein, so funktioniert Wissenschaft nicht. Jemand der eine These aufstellt muss diese beweisen, erst dann ist es möglich einen Beweis zu widerlegen. Ich kann alles behaupten, so lange ich dafür keinen Beweis bringe ist meine Behauptung komplett wertlos.


Bist Du wirklich sicher, dass ich auf Zuruf von außen plötzlich alles belegen und beweisen muß?


Eigentlich solltest du das von dir aus tun, Zurufe von Außen sollten nicht notwendig sein.


Und damit meine ich nicht einfach nur schnell mal ein paar Links, sondern ich soll den Beweis liefern, dass Deine Gegenthese nicht korrekt ist und meine Werte Bestand haben.


Nicht für ein paar Links, oder einfach nur einen Bericht über irgendeine Quelle. Wenn du aber deine eigenen Schlüsse aufgrund von Daten aus angegebenen Drittquellen ziehst, die dort nicht bereits explizit vorhanden waren musst du sehrwohl darlegen wie du zu deinem Schluss gekommen bist.


Ich glaube, es läuft normalerweise umgekehrt.


Das Wort "glaube" ist ein sehr starker Hinweis auf fehlendes Wissen.





Nicht in diesem Thread. Du hattest vorstehend ein Beispiel, was ich entkräftet habe, ohne überhaupt die Quelle lesen zu müssen. Ich bat um weitere Beispiele. Dies ist der aktuelle Stand.[/QUOTE]

Orko
2023-08-26, 05:39:07
Eine (aus inhaltlicher Sicht) spannende Diskussion die ich interessiert verfolgt habe.

Kurz mit meinen eigenen Worten zusammengefasst und ergänzt:

1: Diskussionsgrundlage
Graphikkarten insbesondere an der Leistungsspitze und insbesondere in niedrigen Auflösungen (z.B. FHD=1080p)
welche sich deswegen meist im CPU Limit befinden verbrauchen in einigen Spielen und zum Teil Einzeltestabhängig ggf (deutlich) weniger Watt
als der Verbrachsdurchschnitt über viele Spiele & auflösungsunabhängig ergibt.

2: Kritik
Ein Effizienzwert der durch "FHD-Index geteilt durch gemittelten Verbrauch" bestimmt wird,
ist daher für betroffene Karten nicht repräsentativ (bzw zu schlecht)
im Vergleich zu analog ermittelten Effizienzwerten nicht / wenig betroffener Karten.

3: Anmerkungen meinerseits
- Als Indiz vorrangig davon betroffener Karten kann IMHO die
Sättigung des FHD-Indizes (Abnahme des FHD/UHD Indexverhältnisses)
herangezogen werden.
- Der Effekt der Sättigung des FHD-Indizes für starke Karten würde von Leo
desöfteren offen so kommuniziert.

4: Vorschlag / Forderung
Der Idealfall wäre, für jeden einzelnen Spiele Test auch den zugehörigen Verbrauch mit zu ermitteln,
dann für jeden einzelnen Spiele Test das Datentripel (FPS, Verbrauch, Effizienz) zu erstellen,
und erst dann für Graphikkarten repräsentative Mittelwerte zu bilden.

5: Riposte
Dies ist realistischerweise für Tester machbar (z.B. Igor),
aber nicht für News/Datenakkumulatoren welche keine eigenen Tests durchführen,
da aktuell die Mehrheit der Tester bzw Testdatenpublisher
diese Daten nicht in ausreichender Menge erstellt bzw zur Verfügung stellt.

6: Wunsch
Es wäre schön wenn ausreichend viele Tester / Testdatenpublisher
dies zukünftig in ausreichender Menge tun würden.

7: weitere Vorschläge / Forderungen
entsprechend betroffene Effizienzwerte nicht zu veröffentlichen
entsprechende betroffene Effizienzwerte (und FHD Indexwerte?) entsprechend zu kennzeichnen

8: nicht diskussionswürding, da IMHO weder zielführend noch thematisch passend
- Pauschalvorwürfe wie z.B. der der (bewussten) Lesertäuschung
- Totschlagarmumente im Stil von "wenn du es nicht besser kannst dann lass es bleiben"
- Diskussionen über Beweislast und Beweispflicht
- Diskussion der Hoheitsrechte eines Seitenbetreibers
- Diskussion der journalistischen Veröffentlichungs-Freiheit

Soweit ich sehe, liegen damit alle wesentlichen Argumente und Aspekte dieses Themas auf dem Tisch
- Auf der einen Seite der Fokus auf das theoretische Ideal
(entweder 100% perfekt, oder gar nicht)
- Auf der anderen Seite der Fokus auf eine praxisorientierte Herangehensweise
(was als News/Datenakkumulator mit der verfügbaren Datenbasis aktuell realistisch machbar ist)
und eine weitere Diskussion kann dem nichts Substanzielles mehr hinzufügen.

Daher schlage ich als finales Fazit vor: "Let's agree to disagree."

Für meinen Teil möchte ich anmerken,
dass ich mir der genannten Problematik durchaus bewusst bin,
deshalb meine Auswertung explizit auf den UHD und nicht auf den FHD Index gestützt habe,
und mich als 3DC Leser weder bewusst noch unbewusst getäuscht fühle.

Damit ist für mich dieser Diskussionsstrang beendet.

Leonidas
2023-08-26, 05:49:51
Ich brauche nur ein einziges Spiel um deine These zu widerlegen.

Eigentlich nicht. Du würdest damit nur eine Ausnahme präsentieren können. Was ändert eine Ausnahme an einer These? Die These hat nicht behauptet, es gäbe keine Ausnahmen. Ergo wird Sie durch eine einzelne Ausnahme nicht ins Wanken gebracht. Letzteres passiert erst, wenn es mehr als Ausnahmen sind.





Da musst du dich schon entscheiden, sind die Werte relevant oder nicht, einmal ja, einmal nein ist ein Widerspruch in sich.
Ich würde ihnen ja generell nicht die Relevanz absprechen, die kommmenden 500Hz Monitore sind beispielweise auch nur FullHD und verlangen nach einer potenten Grafikkarte um bespielt zu werden.

Die Anzahl der FHD-Gamer mit einer 4090 ist nun einmal gering. Nicht Null, aber gering.





Aber ja es gibt genug weitere Beispiele:
https://www.igorslab.de/nvidia-geforce-rtx-4090-founders-edition-24gb-im-test-der-kraftstrotzende-monolith-der-aus-der-kaelte-kam/4/

Igor ermittelte hier im Schnitt
321,3W unter 1440p
371,5W unter 2160p

... und liegt damit auffällig unter den Ergebnissen anderer Tests. Ich ziehe nur diejenigen mit mehreren Meßwerten ran:
412W Comptoir d.H.
415W PCGH
431W LesNumeriques

Auch diejenigen mit Einzelwerten bewegen sich im Bereich 412-469W, ein Ausreißer bei 346W.

Ergo: Alle Meßergebnisse betrachtet kommt ein Schnitt von 418W heraus. Solide mathematische Ableitung ALLER vorliegenden Resultate. Aber ich habe mich dabei nicht entscheiden, ein einzelnes Resultat (das von Igor) zum alleinigen Maßstab zu erklären. Genau das tust Du hier.




Es wäre zweifelsfrei möglich, es wäre eine Heidenarbeit und es ist absolut verständlich dass du dir diese nicht antun willst, nur dann veröffentliche keine Sachen die du nicht wissen kannst.

Nein. Es würde Testsysteme in einem Umfang benötigen, welchen ich mir zweifelsfrei nicht leisten kann. Ich meinte das schon ernsthaft als ich sagte "vollkommen unmöglich".





Wenn du aber deine eigenen Schlüsse aufgrund von Daten aus angegebenen Drittquellen ziehst, die dort nicht bereits explizit vorhanden waren musst du sehrwohl darlegen wie du zu deinem Schluss gekommen bist.

Genau das habe ich doch aber getan (immer wieder und wieder). Alle benutzten Werte zur 4090 sind hier aufgelistet. Einen Durchschnitt kannst Du selber ausrechnen. Jener kann leicht anders als meiner ausfallen, weil ich mit Gewichtung gegen besonders abseitige Werte arbeite (wichtig bei Power-Tests, wo so etwas durchaus vorkommen kann).
https://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-rtx-4090/launch-analyse-nvidia-geforce-rtx-4090-seite-3





Das Wort "glaube" ist ein sehr starker Hinweis auf fehlendes Wissen.

Ich bitte darum zu unterlassen, sich an einer flapsigen Wortwahl in einem Forum hochzuziehen. Jedem der das liest sollte klar sein, dass ich anstatt "glaube" auch "ich denke" oder "ich weiss" schreiben könnte.

Leonidas
2023-08-26, 05:58:12
Ein Effizienzwert der durch "FHD-Index geteilt durch gemittelten Verbrauch" bestimmt wird,
ist daher für betroffene Karten nicht repräsentativ (bzw zu schlecht)
im Vergleich zu analog ermittelten Effizienzwerten nicht / wenig betroffener Karten.

Hier stimme ich ja voll zu, aber der Kritikpunkt des Gastes betraf eher die Höhe der Werte an sich, nicht zwingend die Auflösung.

Mir ist klar, dass FHD-Performance geteilt durch 4K-Verbrauch durchaus suboptimal ist für einige Spitzen-Karten. Für jene müsste man eigentlich einen extra FHD-Verbrauch erfassen. Leider ist die Wertebasis dafür zu gering, gerade wenn man die insgesamte Wertebasis ansieht: Viele Werte für 4K-Verbrauch, ganz wenige für FHD-Verbrauch. Nichtmal Igor hat für die 4090 einen FHD-Verbrauch erfasst. Und dann gilt auch wieder: Einzelwerte können beim Verbrauch auch gewaltig danebenliegen, sind also immer riskant.

Eine vertrackte Situation, die ich leider nicht lösen kann. Würden vollständige Werte für alles vorliegen, würde ich wohl ganz automatisch mittlere Verbrauchswerte für alle Auflösungen erfassen. Sobald die Daten nur vollständig genug sind, bin ich bei so was gern dabei. Mein Zögern in der Praxis ist bestimmt durch meine Arbeit mit den Daten bzw. den vielen Lücken, die sich in den ergeben. Sobald zu wenige Daten vorhanden sind, wird es eben einfach Kaffeesatzleserei. Da sträuben sich dann die Nackenhaare, damit arbeiten zu wollen (weil ich innerlich weiss, wie unsolide das ganze ist).

Gast
2023-08-26, 19:57:30
Eigentlich nicht. Du würdest damit nur eine Ausnahme präsentieren können. Was ändert eine Ausnahme an einer These?


Dass du für deine These noch nicht mal einen schlüssigen Datensatz präsentieren konntest, der diese untermauern würde.

Also steht es "1:0" für mich, oder eigentlich mittlerweile eher sowas wie 40 oder 50 zu null, wenn man Igors daten mitzählt die ich jetzt auch gepostet habe.



Die Anzahl der FHD-Gamer mit einer 4090 ist nun einmal gering. Nicht Null, aber gering.


Ich würde sogar vermuten ist höher als die Anzahl der 4k Gamer, wobei ich das logischerweise nicht beweisen kann und nur eine Vermutung aufgrund der vorhandenen potenten Gaming-Bildschirmen in verschiedenen Auflösungen ist, die sind nun mal in 4k immer noch sehr rar, wobei bei WQHD+ wohl zweifelsfrei die Masse zuhause ist.



... und liegt damit auffällig unter den Ergebnissen anderer Tests.


Weil er einer der wenigen (sogar der einzige?) ist, der Leistungs- und Leistaufnahmebenchmarks in einer Form durchführt dass die Ergebnisse miteinander korrelieren. Alles andere sind entweder Werte die gar nichts mit den Benchmarks zu tun haben oder Maximalwerte in ausgesuchten Spielen.


Ergo: Alle Meßergebnisse betrachtet kommt ein Schnitt von 418W heraus. Solide mathematische Ableitung ALLER vorliegenden Resultate. Aber ich habe mich dabei nicht entscheiden, ein einzelnes Resultat (das von Igor) zum alleinigen Maßstab zu erklären. Genau das tust Du hier.


Selbst das ist nicht war, wenn du deinem Mantra, viel hilft viel, treu bleiben würdest müsstest du von Igor (sowie von den anderen) jeden einzelnen Messwert verrechnen. Da es von Igor wohl so um die 50 gibt, und von den andern jeweils weniger als eine Hand voll würden damit Igors Werte den Durchschnitt dominieren.



Nein. Es würde Testsysteme in einem Umfang benötigen, welchen ich mir zweifelsfrei nicht leisten kann. Ich meinte das schon ernsthaft als ich sagte "vollkommen unmöglich".


Nicht wirklich ein einfaches Testsystem mit aktueller CPU reicht, und einfach den Verbrauch aus Slot + Stecker zu messen ist keine Hexerei und finanziell sehr überschaubar, so lange es um nichts zeitkritisches handelt für was man ein sündteures Oszi bräuchte. Für den großteil der Karten, insbesondere der älteren würdest du ziemlich sicher jemanden finden der sie dir leiht.


[quote]
Genau das habe ich doch aber getan (immer wieder und wieder). Alle benutzten Werte zur 4090 sind hier aufgelistet. Einen Durchschnitt kannst Du selber ausrechnen. Jener kann leicht anders als meiner ausfallen, weil ich mit Gewichtung gegen besonders abseitige Werte arbeite (wichtig bei Power-Tests, wo so etwas durchaus vorkommen kann).
https://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-rtx-4090/launch-analyse-nvidia-geforce-rtx-4090-seite-3

Und davon ein einziger für die Ermittlung der AVG Power brauchbar und einige sogar mit der expliziten Angabe dass es sich um Peak-Werte (im Gaming) handelt und die AVG Werte meistens niedriger sind (leider ohne genau Dokumentation wie diese nun aussehen), zumindest von denen deren Sprache ich mächtig bin.

Gast
2023-08-26, 20:36:17
2: Kritik
Ein Effizienzwert der durch "FHD-Index geteilt durch gemittelten Verbrauch" bestimmt wird,
ist daher für betroffene Karten nicht repräsentativ (bzw zu schlecht)
im Vergleich zu analog ermittelten Effizienzwerten nicht / wenig betroffener Karten.



Es geht nicht um FHD-Werte im speziellen diese machen es nur mehr als offensichtlich dass sie nicht stimmen können.

Das wäre das selbe wenn ich den Verbrauch eines Autos messen will gestern auf der Autobahn fahre, und dann heute eine Runde durch die Stadt und irgendwie daraus versuche irgendeinen Effizienzwert zu ermitteln.

Wenn ich Datenpunkte in ein 2-D Diagramm zeichne müssen die Werte auch zusammenhängen.

Wenn meine X-Achse FPS und die Y-Achse Verbrauch ist macht es überhaupt keinen Sinn wenn für einen Datenpunkt die FPS und die Verbrauchswerte zu verschiedenen Messungen gehören.


3: Anmerkungen meinerseits
- Als Indiz vorrangig davon betroffener Karten kann IMHO die
Sättigung des FHD-Indizes (Abnahme des FHD/UHD Indexverhältnisses)
herangezogen werden.
- Der Effekt der Sättigung des FHD-Indizes für starke Karten würde von Leo
desöfteren offen so kommuniziert.


Wie gesagt, es geht nicht um die FullHD-Werte, die dienen nur dazu um zu zeigen, dass die angewandte Methodik falsch ist, ohne sie zuerst mit eigenen Messwerten untermauern zu müssen, weil es derart offensichtlich ist.

Und die Methodik ist immer falsch, mögliche CPU-Limits verstärken den Fehler nur.

Grafikkarten erreichen in unterschiedlichen Spielen eine unterschiedliche Performance, bei unterschiedlichen Leistungsaufnahmen. CPU-Limits sind nur eine Variable in diesem System die eine durchaus erhebliche Rolle spielen aber eben nicht alles sind.
Auch ganz ohne CPU-Limit kann Spiel A und Spiel B ganz andere Charakteristiken, sowohl bei der Leistungsaufnahme als auch bei der Performance aufweisen.

Leonidas
2023-08-27, 03:14:12
Dass du für deine These noch nicht mal einen schlüssigen Datensatz präsentieren konntest, der diese untermauern würde. Also steht es "1:0" für mich, oder eigentlich mittlerweile eher sowas wie 40 oder 50 zu null, wenn man Igors daten mitzählt die ich jetzt auch gepostet habe.

Nur dann, wenn Du meine wesentlich reichthaltigere und hier bereits genannte Datenquelle ignorieren kannst:
https://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-rtx-4090/launch-analyse-nvidia-geforce-rtx-4090-seite-3




Ich würde sogar vermuten ist höher als die Anzahl der 4k Gamer, wobei ich das logischerweise nicht beweisen kann und nur eine Vermutung aufgrund der vorhandenen potenten Gaming-Bildschirmen in verschiedenen Auflösungen ist, die sind nun mal in 4k immer noch sehr rar, wobei bei WQHD+ wohl zweifelsfrei die Masse zuhause ist.

Denkbar ist alles, auch dass es mehr FHD-Gamer sind. Hier bräuchte man tatsächlich Fakten, um Vermutungen zu ersetzen. Aber zielführend ist das bisher nicht. Mangels besserem Wissen bin ich davon ausgegangen, dass die 4090 nur für 4K Relevanz hat. Du hattest jetzt wie ich auch keine besseren Fakten. Gut, aber dann darf man auch mal eine "nach Gusto" Entscheidung akzeptieren.




Weil er einer der wenigen (sogar der einzige?) ist, der Leistungs- und Leistaufnahmebenchmarks in einer Form durchführt dass die Ergebnisse miteinander korrelieren. Alles andere sind entweder Werte die gar nichts mit den Benchmarks zu tun haben oder Maximalwerte in ausgesuchten Spielen.

Nein. Le Comptoir misst beispielsweise sogar für mehr Spiele, als man benchmarkt.

Du hast Recht in dem Bedenkenpunkt: Wo können die anderen beweisen, dass deren Messungen den Benchmark selber treffen? Oder aber das es wenigstens nicht grob abweichend ist? Aber so lange Du keinen klaren Hinweis darauf hast, dass es eben abweichend ist (Du hast eine These, mehr nicht), solltest Du diese Frage eher mit diesen anderen Quellen ausdiskutieren, nicht mit mir.




Selbst das ist nicht war, wenn du deinem Mantra, viel hilft viel, treu bleiben würdest müsstest du von Igor (sowie von den anderen) jeden einzelnen Messwert verrechnen. Da es von Igor wohl so um die 50 gibt, und von den andern jeweils weniger als eine Hand voll würden damit Igors Werte den Durchschnitt dominieren.

Nein. Ich habe diejenigen mit vielen Werten schon hochgewichtet, darunter auch Igor.




Nicht wirklich ein einfaches Testsystem mit aktueller CPU reicht, und einfach den Verbrauch aus Slot + Stecker zu messen ist keine Hexerei und finanziell sehr überschaubar, so lange es um nichts zeitkritisches handelt für was man ein sündteures Oszi bräuchte. Für den großteil der Karten, insbesondere der älteren würdest du ziemlich sicher jemanden finden der sie dir leiht.

Naja, ich ging eher von dem Aufwand für den grundlegend hier besprochenen Test aus, sprich alle Karten aller Generationen. Aber egal, selbst wenn es sich nur um die Karten von 2 Generationen handelt: Finanziell unmöglich stemmbar. Wie oft muß ich das Wort "unmöglich" noch erwähnen, damit es verstanden wird?





Und davon ein einziger für die Ermittlung der AVG Power brauchbar und einige sogar mit der expliziten Angabe dass es sich um Peak-Werte (im Gaming) handelt und die AVG Werte meistens niedriger sind (leider ohne genau Dokumentation wie diese nun aussehen), zumindest von denen deren Sprache ich mächtig bin.

Hier hast Du einen Punkt, ich sollte mehr darauf schauen, AVG Werte zu bekommen bzw. jene höher gewichten. Das fällt bei den kleineren Karten weniger ins Gewicht, da ist die Differenz so klein, dass jene verschwimmt. Unter Umständen ist dies der Grund, wieso Igors Werte bei der 4090 so abweichen - einfach weil jener stärker auf AVGs geachtet hat. Wenn ich das nächste Mal zu einer Analyse von HighEnd-Geraffel schreite, werde ich mich wohl an diesen Fall erinnern und dann mal schauen, ob ich die vorliegenden Meßwerte (auch zu 4090) unter neuem Blickwinkel betrachten kann.

Orko
2023-08-27, 05:12:16
Es geht nicht um FHD-Werte im speziellen diese machen es nur mehr als offensichtlich dass sie nicht stimmen können.

Das wäre das selbe wenn ich den Verbrauch eines Autos messen will gestern auf der Autobahn fahre, und dann heute eine Runde durch die Stadt und irgendwie daraus versuche irgendeinen Effizienzwert zu ermitteln.

Wenn ich Datenpunkte in ein 2-D Diagramm zeichne müssen die Werte auch zusammenhängen.

Wenn meine X-Achse FPS und die Y-Achse Verbrauch ist macht es überhaupt keinen Sinn wenn für einen Datenpunkt die FPS und die Verbrauchswerte zu verschiedenen Messungen gehören.

Wie gesagt, es geht nicht um die FullHD-Werte, die dienen nur dazu um zu zeigen, dass die angewandte Methodik falsch ist, ohne sie zuerst mit eigenen Messwerten untermauern zu müssen, weil es derart offensichtlich ist.

Und die Methodik ist immer falsch, mögliche CPU-Limits verstärken den Fehler nur.

Grafikkarten erreichen in unterschiedlichen Spielen eine unterschiedliche Performance, bei unterschiedlichen Leistungsaufnahmen. CPU-Limits sind nur eine Variable in diesem System die eine durchaus erhebliche Rolle spielen aber eben nicht alles sind.
Auch ganz ohne CPU-Limit kann Spiel A und Spiel B ganz andere Charakteristiken, sowohl bei der Leistungsaufnahme als auch bei der Performance aufweisen.



Hier liegst du mathematisch gesehen eindeutig falsch, da du die Mittelwertbildung ignorierst.

Für Effizienzberechnungen bietet sich das geometrische Mittel an.

Durchschnittliche Effizienz = geo_Mittel (FPS / Leistungsaufnahme) = geo_Mittel (FPS) / geo_Mittel (Leistungsaufnahme)
Das ist eine inherente Eigenschaft des geometrischen Mittels.

geo_Mittel (FPS / Leistungsaufnahme): Hier müssen FPS und Leistungsaufnahmedaten jeweils aus demselben Test kommen,
und es wird dann über alle Tests gemittelt. So wie du es beschreibst und die vorstellst.

geo_Mittel (FPS) / geo_Mittel (Leistungsaufnahme):
Hier werden alle verfügbaren FPS gemittelt, und getrennt davon alle verfügbaren Leistungsaufnahmen.
Die FPS und Leistungsaufnahme Daten müssen nicht mehr in Pärchen vorliegen, stammen jedoch (soweit) aus denselben Tests.
Anschaulich: Es ist egal welcher FPS Wert zu welchem Leistungsaufnahme Wert gehört.
Das Ergebnis ist exakt dasselbe. Auch dann wenn das für dich keinen Sinn ergibt.


Beispiel/Illustration:

Test 1: FPS = 123, Leistung = 100 Watt
Test 2: FPS = 234, Leistung = 200 Watt
Test 3: FPS = 345, Leistung = 300 Watt

1. Rechenweg:

Effizienz_Test_1 = 123/100 =1,23
Effizienz_Test_2 = 234/200 =1,17
Effizienz_Test_3 = 345/300 =1,15

geo_Mittel_Effizienz = 3. Wurzel (1,23*1,17*1,15) = 1,1828498...

2. Rechenweg:

geo_Mittelwert_FPS = 3. Wurzel (123*234*345) = 3. Wurzel (234*345*123) = ... = 214,9380748...
Rechnung komplett unabhängig von den Leistungswerten, und völlig egal in welcher Reihenfolge die FPS Werte vorliegen

geo_Mittelwert_Leistung = 3. Wurzel (100*200*300) = 3. Wurzel (300*200*100) = ... = 181,71205928...
Rechnung komplett unabhängig von den FPS Werten, und völlig egal in welcher Reihenfolge die Leistungs Werte vorliegen

geo_Mittel_Effizienz = 214,9380748... / 181,71205928... = 1,1828498...
welch eine Überraschung, exakt derselbe Wert


Noch anschaulicher wird es, wenn ich die Testdaten wild durcheinandermixe.
z.B. so:

a) FPS = 345 aus Test 3 & Leistung = 200 Watt aus Test 2
b) FPS = 123 aus Test 1 & Leistung = 300 Watt aus Test 3
c) FPS = 234 aus Test 2 & Leistung = 100 Watt aus Test 1

1. Rechenweg:

Effizienz_a = 345/200 =1,725
Effizienz_b = 123/300 =0,41
Effizienz_c = 234/100 =2,34

Diese 3 Effizienz Daten sind dann natürlich kompletter Käse.

geo_Mittel_Effizienz = 3. Wurzel (1,725*0,41*2,34) = 1,1828498...
Aber der Effizienz Mittelwert ist wieder exakt derselbe

2. Rechenweg:

unverändert:
geo_Mittelwert_FPS = 3. Wurzel (345*123*234 oder jede beliebige andere Reihenfolge dieser 3 Zahlen) = 214,9380748...
geo_Mittelwert_Leistung = 3. Wurzel (200*300*100 oder jede beliebige andere Reihenfolge dieser 3 Zahlen) = 181,71205928...
geo_Mittel_Effizienz = 214,9380748... / 181,71205928... = 1,1828498...

Es ergeben sich dieselben charakteristischen Mittelwerte für FPS, Leistung und Effizienz.
Und das obwohl ich die ursprünglichen Testdaten wild durcheinandergewürfelt habe.
Für diese Mittelwerte ist es also offensichtlich völlig egal, ob die FPS Werte und die Leistungswerte zusammengehören oder nicht.


Wenn nun die gemittelten FPS und Leistungsaufnahmen Daten charakteristisch (!) sind,
dann entfällt die Forderung nach denselben Tests.
Charakteristisch heisst ja, dass eine ausreichend grosse Anzahl an Tests immer zu denselben charakteristischen Daten führt.

Anders formuliert:
Solange die Anzahl der Tests (die Datenbasis) ausreichend gross ist,
ergeben sich immer dieselben charakteristischen Werte.

Es ist unter diesem Gesichtspunkt völlig legitim,
aus z.B. 46 Einzeltests die FPS Daten zu mitteln,
und aus z.B. 35 anderen Einzeltests die Leistungsaufnahmen zu mitteln.
solange alle 46+35 Tests den Gesichtspunkt der ausgewählten Charakteristik erfüllen.

Z.B. wenn die FPS Daten aus 46 Tests gemittelt werden die nur UHD Fälle beinhalten,
dann sollten auch die 35 Leistungsaufnahmen nur aus Tests gemittelt werden die UHD Fälle beinhalten,
und es ergibt sich ein für UHD charakteristischer Effizienzwert.



Dein Kritikpunkt, dass die FPS Werte in den Charakteristiken FHD und UHD erhoben werden,
nicht aber die Leistungsaufnahmen, ist legitim.

Fehler Ergeben sich genau dann, wenn die charakteristischen Leistungsaufnahmen (für FHD, UHD, ...)
von dem Leistungsaufnahmemittel abweichen welches ohne berücksichtigung dieser Charakteristiken erstellt wurde.

Und das ist nun mal vor allem für starke Graphikkarten im im CPU Limit, und damit vor allem bei gerigen Auflösungen der Fall.



Deine oben beschriebene Fundamentalkritik an der Methodik ist aber offensichtlich* falsch und damit gegenstandslos.
(* offensichtlich wenn anhand von Mathematik und nicht anhand von dem was für dich Sinn macht argumentiert wird)

Eine Diskussion geometrisches vs arithmetisches Mittel möchte ich mir hier ersparen.

Und mit diesem Grundkurs in simpler Mathematik ist für mich jetzt wirklich Schluß hier.

Gast
2023-08-27, 16:13:07
Nur dann, wenn Du meine wesentlich reichthaltigere und hier bereits genannte Datenquelle ignorieren kannst:
https://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-rtx-4090/launch-analyse-nvidia-geforce-rtx-4090-seite-3



Zeig mir einen einzigen Datensatz, bestehend aus 2 unterschiedlichen Spielen, und den Auflösungen 4k und WQHD, 1080p lassen wir mal weg ist ja angeblich nicht relevant, in denen die Leistungsaufnahme und Performance korrekt über den gesamten Benchmarkverlauf erfasst wurde, in denen sich die Leistungsaufnahme einer 4090 um weniger als 5% in den 4 Einzelmessungen voneinander abweicht.
Ich wette mit dir, dass ich dir für jeden Datensatz der diesem Kriterium entspricht, mindestens 2 finde für welche dieses nicht erfüllt ist.

Alleine dass die Messwerte der einzelnen Tests dermaßen Stark voneinander abweichen zeigt, dass es keinen gültigen Einzelwert geben kann den man einfach für alles hernehmen kann weil es davon nur vereinzelte Ausreißer gibt.



Denkbar ist alles, auch dass es mehr FHD-Gamer sind. Hier bräuchte man tatsächlich Fakten, um Vermutungen zu ersetzen.


Ja, da wird es tatsächlich schwer korrekte Daten zu ermitteln, und die Zeit spricht sicher für 4k, 2024 sollten ja doch so einige Monitore mit 4k@240Hz erscheinen. Also lassen wir mal 1080p weg und konzentrieren uns nur auf WQHD und 4k.





Nein. Le Comptoir misst beispielsweise sogar für mehr Spiele, als man benchmarkt.


Da ich des französischen nicht mächtig bin kann ich dazu leider wenig sagen.
Es kommt nicht nur auf die Menge der Messungen sondern auch um die korrekte Dokumentation des Messaufbaus an.
Möglich dass die von Le Comptoir tatsächlich gut sind, für mich ohne Französischkenntnisse aber nicht überprüfbar.

Beispielsweise guru3d ist komplett unbrauchbar, die knallen einfach Werte hin ohne jegliche Dokumentation wie diese ermittelt wurden. Der "Typical power comsumption" Wert könnte beispielsweise ein korrekt ermittelter Durchschnitt über alle Benchmarks sein. Mit absolut 0 Dokumentation aber leider komplett unbrauchbar.

Dann haben wir den Computerbase-Wert in dem im Test selbst steht:
In den meisten Games bewegt sich die Leistungsaufnahme bei rund 400 Watt.

Ist natürlich auch keine vernünftige Dokumentation, und vermutlich auch keine ordentliche Messung vorhanden, aber trotzdem nimmst du die 436W eines einzelnen Tests als AVG her, obwohl im Test selbst steht dass sich AVG eher "um die 400W" abspielt.

PCGH, definitiv einer der besseren Tests auch was die Dokumentation angeht schreibt selbst:

Wie immer bildet die folgende Tabelle die Maximalwerte aller Grafikkarten ab.

Damit ist die Verwendung der Messwerte als AVG-Power wie du es machst von vorne herein ausgeschlossen, es sind keine AVG Werte und sollen auch keine sein.



Du hast Recht in dem Bedenkenpunkt: Wo können die anderen beweisen, dass deren Messungen den Benchmark selber treffen? Oder aber das es wenigstens nicht grob abweichend ist? Aber so lange Du keinen klaren Hinweis darauf hast, dass es eben abweichend ist (Du hast eine These, mehr nicht), solltest Du diese Frage eher mit diesen anderen Quellen ausdiskutieren, nicht mit mir.


Messungen die nicht dokumentieren was sie messen dürfen nicht verwendet werden. Und Messungen die Dokumentieren dass sie eigentlich was anderes Messen als wir brauchen (siehe letzter Absatz) natürlich auch nicht.




Nein. Ich habe diejenigen mit vielen Werten schon hochgewichtet, darunter auch Igor.


Aber wohl nicht in dem Maße in dem die Werte vorhanden sind.
Eine Gewichtung wäre btw. komplett unnötig, es müssten einfach alle Einzelwerte miteinander verrechnet werden dann ergäbe sich die Gewichtung nach mehreren Einzelwerten automatisch, anstatt die Werte einzelner Seiten zu mitteln und diese dann wiederum miteinander mit einer nicht nachvollziehbaren Gewichtung zu mitteln.




Hier hast Du einen Punkt, ich sollte mehr darauf schauen, AVG Werte zu bekommen bzw. jene höher gewichten.

Wenn man die AVG Effizienz berechnen will dürfen nur AVG Messwerte herangezogen gar keine andern.

Natürlich darf und kann man auch über Maximalwerte die andere Messen berichten und diese entsprechend Beurteilen. Aber man muss sie als das behandeln was sie sind, eben Maximalwerte und nicht irgendwelche AVG-Werte.

Gast
2023-08-27, 16:25:44
Hier liegst du mathematisch gesehen eindeutig falsch, da du die Mittelwertbildung ignorierst.

Für Effizienzberechnungen bietet sich das geometrische Mittel an.

Durchschnittliche Effizienz = geo_Mittel (FPS / Leistungsaufnahme) = geo_Mittel (FPS) / geo_Mittel (Leistungsaufnahme)
Das ist eine inherente Eigenschaft des geometrischen Mittels.

geo_Mittel (FPS / Leistungsaufnahme): Hier müssen FPS und Leistungsaufnahmedaten jeweils aus demselben Test kommen,
und es wird dann über alle Tests gemittelt. So wie du es beschreibst und die vorstellst.

geo_Mittel (FPS) / geo_Mittel (Leistungsaufnahme):
Hier werden alle verfügbaren FPS gemittelt, und getrennt davon alle verfügbaren Leistungsaufnahmen.
Die FPS und Leistungsaufnahme Daten müssen nicht mehr in Pärchen vorliegen, stammen jedoch (soweit) aus denselben Tests.
Anschaulich: Es ist egal welcher FPS Wert zu welchem Leistungsaufnahme Wert gehört.
Das Ergebnis ist exakt dasselbe. Auch dann wenn das für dich keinen Sinn ergibt.


Beispiel/Illustration:

Test 1: FPS = 123, Leistung = 100 Watt
Test 2: FPS = 234, Leistung = 200 Watt
Test 3: FPS = 345, Leistung = 300 Watt

1. Rechenweg:

Effizienz_Test_1 = 123/100 =1,23
Effizienz_Test_2 = 234/200 =1,17
Effizienz_Test_3 = 345/300 =1,15

geo_Mittel_Effizienz = 3. Wurzel (1,23*1,17*1,15) = 1,1828498...

2. Rechenweg:

geo_Mittelwert_FPS = 3. Wurzel (123*234*345) = 3. Wurzel (234*345*123) = ... = 214,9380748...
Rechnung komplett unabhängig von den Leistungswerten, und völlig egal in welcher Reihenfolge die FPS Werte vorliegen

geo_Mittelwert_Leistung = 3. Wurzel (100*200*300) = 3. Wurzel (300*200*100) = ... = 181,71205928...
Rechnung komplett unabhängig von den FPS Werten, und völlig egal in welcher Reihenfolge die Leistungs Werte vorliegen

geo_Mittel_Effizienz = 214,9380748... / 181,71205928... = 1,1828498...
welch eine Überraschung, exakt derselbe Wert


Noch anschaulicher wird es, wenn ich die Testdaten wild durcheinandermixe.
z.B. so:

a) FPS = 345 aus Test 3 & Leistung = 200 Watt aus Test 2
b) FPS = 123 aus Test 1 & Leistung = 300 Watt aus Test 3
c) FPS = 234 aus Test 2 & Leistung = 100 Watt aus Test 1

1. Rechenweg:

Effizienz_a = 345/200 =1,725
Effizienz_b = 123/300 =0,41
Effizienz_c = 234/100 =2,34

Diese 3 Effizienz Daten sind dann natürlich kompletter Käse.

geo_Mittel_Effizienz = 3. Wurzel (1,725*0,41*2,34) = 1,1828498...
Aber der Effizienz Mittelwert ist wieder exakt derselbe

2. Rechenweg:

unverändert:
geo_Mittelwert_FPS = 3. Wurzel (345*123*234 oder jede beliebige andere Reihenfolge dieser 3 Zahlen) = 214,9380748...
geo_Mittelwert_Leistung = 3. Wurzel (200*300*100 oder jede beliebige andere Reihenfolge dieser 3 Zahlen) = 181,71205928...
geo_Mittel_Effizienz = 214,9380748... / 181,71205928... = 1,1828498...

Es ergeben sich dieselben charakteristischen Mittelwerte für FPS, Leistung und Effizienz.
Und das obwohl ich die ursprünglichen Testdaten wild durcheinandergewürfelt habe.
Für diese Mittelwerte ist es also offensichtlich völlig egal, ob die FPS Werte und die Leistungswerte zusammengehören oder nicht.



Danke für die Aufklärung dass die Multiplikation kommutativ ist, das war mir schon bekannt.

Natürlich ist die Mittelwertbildung die selbe egal in welcher Reihenfolge du sie machst.

Nur funktioniert deine Rechnung nur weil du in deiner Annahme für jede Leistungsmessung mit einer korrekten Messung der Leistungsaufnahme verknüpfst.

Wenn ich jetzt deine Messreihe auf 10x so viele Messungen erweitern würde, und dann Random nur 3 Powermessungen übrig lasse sieht das Ergebnis komplett anders aus abhängig davon welche der 3 Powermessungen ich drinnen lasse.



Und genau das ist das Problem es werden einige wenige Powermessungen mit einer Vielzahl an Performancemessungen verrechnet ohne wissen zu können ob die Powermessungen für diese Performancemessungen tatsächlich charakteristisch ist.

Orko
2023-08-28, 00:17:24
Wenn ich jetzt deine Messreihe auf 10x so viele Messungen erweitern würde, und dann Random nur 3 Powermessungen übrig lasse sieht das Ergebnis komplett anders aus abhängig davon welche der 3 Powermessungen ich drinnen lasse.


Offensichtlich, da 3 Messungen zu wenig Datenpunkte sind.

Wenn du z.B. 100+ Einzelmessungen durchführst, damit 100 FPS Werte und 100 Leistungswerte erzeugst, und dann random (!) Mindestens 35* der 100 FPS Werte und ebenso random (!) Mindestens 35* der 100 Leistungswerte herauspickst, ist das Ergebnis jedesmal nahezu das selbe. Auch dann wenn die Werte von verschiedenen Messungen stammen, solange der Datensatz hinsichtlich Charakteristik konsistent ist.

Probiers aus oder rechne es statistisch durch.

*Das unter der Annahme dass die Verteilung der FPS Werte und die der Leistungswert grob einer Normalverteilung entsprichen. Was sich entweder durch ein Datenplot, oder durch historische Erfahrung mit solchen Messungen, oder ... begründen lässt.
Viele meiner Kollegen und auch ich arbeiten / arbeiteten mit der Anforderung von mindestens 35 Datensätzen für Verteilungsauswertungen die erwartbarerweise grob einer Normalverteilung entsprechen. Falls die Messwerte sehr schwer zu beschaffen sind ggf auch mit nur 25 Datensätzen. Mit weniger Datensätzen sollte nur gearbeitet werden, wenn irgendwo zusätzliche Informationen verfügbar sind, die die Relevanz des Ergebnisses unterstützen bzw belegen. Bei Graphikkarten könnten das z.B. das Informationsplus sein, das sich für jedes konkrete Modell (z.B. rtx 4090) durch die Betrachtung von weiteren Modellen derselben Modelllreihe (rtx 4080 ...) ergibt.



Und genau das ist das Problem es werden einige wenige Powermessungen mit einer Vielzahl an Performancemessungen verrechnet ohne wissen zu können ob die Powermessungen für diese Performancemessungen tatsächlich charakteristisch ist.

Die Anzahl an sich ist irrelevant, solange es nur ausreichend viele sind.
25 Powermesswerte und 300 FPS Messwerte, oder 400 Powermesswerte und 35 FPS Messwerte, oder ... ist egal.

Volle Zustimmung meinerseits zum zweiten Halbsatz.

Leonidas
2023-08-28, 04:18:36
Zeig mir einen einzigen Datensatz, bestehend aus 2 unterschiedlichen Spielen, und den Auflösungen 4k und WQHD, ...

Ich habe nicht behauptet, dass es so etwas außerhalb von Igor gibt. Die anderen messen halt anders. Igor geht da voran mit seinen Messungen.

Ich habe nur darauf geantwortet, dass ich auch weitere Daten habe. Dass Du nur Daten nach Deinem Schema meintest, war mir dabei nicht klar.





Da ich des französischen nicht mächtig bin kann ich dazu leider wenig sagen.
Es kommt nicht nur auf die Menge der Messungen sondern auch um die korrekte Dokumentation des Messaufbaus an.
Möglich dass die von Le Comptoir tatsächlich gut sind, für mich ohne Französischkenntnisse aber nicht überprüfbar.

Ich kann es auch nicht wirklich beantworten.





Beispielsweise guru3d ist komplett unbrauchbar, die knallen einfach Werte hin ohne jegliche Dokumentation wie diese ermittelt wurden. Der "Typical power comsumption" Wert könnte beispielsweise ein korrekt ermittelter Durchschnitt über alle Benchmarks sein. Mit absolut 0 Dokumentation aber leider komplett unbrauchbar.

Ist der Wert eines einzelnen Spiels IMO.






Dann haben wir den Computerbase-Wert in dem im Test selbst steht: "In den meisten Games bewegt sich die Leistungsaufnahme bei rund 400 Watt."

Frage: Mein Mittelwert für die 4090 liegt bei 418W. Ist dies sooooo abweichend von "rund 400 Watt"?





Damit ist die Verwendung der Messwerte als AVG-Power wie du es machst von vorne herein ausgeschlossen, es sind keine AVG Werte und sollen auch keine sein.

Habe ich behauptet, es wären AVG-Werte? Ich sagt sie wären gemittelt - nicht über Spiele, sondern über Quellen. Bitte sag mir nichts nach, was ich gar nicht behauptet habe. Wenn ich irgendwo das Wort gemittelt verwendet habe, dann galt das wie gesagt als "gemittelt über die vorhandenen Quellen".






Messungen die nicht dokumentieren was sie messen dürfen nicht verwendet werden. Und Messungen die Dokumentieren dass sie eigentlich was anderes Messen als wir brauchen (siehe letzter Absatz) natürlich auch nicht.

Kann man so harsch sehen. Man muß sich aber auch darüber im klaren sein: Man kann nur das auswerten, was man an Daten bekommt. Auf Daten zu bestehen, die man nicht bekommt, hilft auch keinem weiter.





Eine Gewichtung wäre btw. komplett unnötig, es müssten einfach alle Einzelwerte miteinander verrechnet werden dann ergäbe sich die Gewichtung nach mehreren Einzelwerten automatisch, anstatt die Werte einzelner Seiten zu mitteln und diese dann wiederum miteinander mit einer nicht nachvollziehbaren Gewichtung zu mitteln.

Nein, das ist nicht möglich. Es sei denn, Du überzeugst die anderen Wertequellen, dem System von Igor zu folgen. Nur dann hast Du zu jedem Benchmark auch einen Watt-Wert.





Wenn man die AVG Effizienz berechnen will dürfen nur AVG Messwerte herangezogen gar keine andern.

Natürlich darf und kann man auch über Maximalwerte die andere Messen berichten und diese entsprechend Beurteilen. Aber man muss sie als das behandeln was sie sind, eben Maximalwerte und nicht irgendwelche AVG-Werte.

Du hast Recht, bei der 4090 geht das daneben mit diesem beachtbaren Unterschied zwischen AVG und Max. Aber das ist auch die Ausnahme von der Regel. Bei kleineren Karten geht die Differenz mitmaßlicherweise auf unter 10W zurück. Und auch bei der 4090 ist sie nicht wirklich hoch.

Mich steht da auch immer die Frage im Raum: Nur die Werte einer einzelnen Quelle verwenden? Und dabei eien Vielzahl an Quellen ignorieren, die zwar nicht perfekt, aber halbwegs nahe dran sind? Eigentlich zu hohes Risiko. Auch Igor ist nicht perfekt. Ich als Datenauswerter weiss als erster (aus reichhaltiger Erfahrung), wie riskant es ist, einer einzelnen Quelle zu vertrauen.





Nebenbei war das Thema für mich eigentlich abgeschlossen. Ich hatte doch schon gesagt, dass ich mir bei nächster Gelegenheit das ganze mal genauer anschauen werden und versuchen werde, da eine Systematik zu erkennen und eventuell weitere AVG-Werte zu bekommen.

PS: Und nur, um dies glasklar zu machen, wo hier mein Problem liegt. Es liegt NICHT in Deinem Ansatz, der ist besser als das bisher benutzte. Es liegt in der Problematik, dass für Deinen Ansatz zu wenig Werte vorhanden sind (mutmaßlicherweise nur die von Igor). Du zwingst mich da also dazu, zwischen viele unqualitative Werte vs. einzelner qualitativer Wert zu wählen. Bei insgesamt nicht weltbewegenden Differenzen und mutmaßlicherweise nur wenigen Grafikkarten, wo das wirklich zutrifft.

Gast
2023-08-28, 07:19:32
Offensichtlich, da 3 Messungen zu wenig Datenpunkte sind.


Die 10 oder so die wir tatsächlich haben sind aber auch viel zu wenig.


Die Anzahl an sich ist irrelevant, solange es nur ausreichend viele sind.


Genau das ist aber der Punkt, wir haben bei weitem nicht ausreichend viele Powermessungen. Wenn wir hunderte korrekt durchgeführte Poweressungen zur Verfügung hätten stimme ich dir natürlich voll zu.

Die Performancemessungen haben ein starkes Übergewicht, und ein übergroßer Teil davon ohne dazugehörige Powermessungen, und wir können nicht wissen ob ein großer Teil der Performancemessungen eher ins Spektrum hohe oder niedrige Leistungsaufnahme gehört.

Leonidas
2023-08-28, 08:13:05
Sofern AVG und MAX einen relevanten Unterschied ergeben (vermutlich nur bei HighEnd-Modellen, wäre zu prüfen), haben wir in der Tat viel zu wenige Power-Messungen. Selbst schon zu wenige, um diesen Thesen mit Beweiskraft nachgehen zu können.

Gast
2023-08-28, 08:13:14
Ich habe nur darauf geantwortet, dass ich auch weitere Daten habe. Dass Du nur Daten nach Deinem Schema meintest, war mir dabei nicht klar.



Diese Daten wären notwendig um der These, dass sich die Leistungsaufnahme im allgemeinen, d.h. bis auf wenige Ausnahmen, in unterschiedlichen Spielen und Auflösungen (hier nur auf die 2 hohen beschränkt) nicht signifikant unterschieden auch nur irgendein Argument zu geben.



Habe ich behauptet, es wären AVG-Werte? Ich sagt sie wären gemittelt - nicht über Spiele, sondern über Quellen. Bitte sag mir nichts nach, was ich gar nicht behauptet habe. Wenn ich irgendwo das Wort gemittelt verwendet habe, dann galt das wie gesagt als "gemittelt über die vorhandenen Quellen".


Du verrechnest AVG Performancewerte mit Leistungsaufnahmewerten zu einem Effizienzwert. Damit implizierst du dass die Leistungsaufnahmewerte AVG-Werte sind, egal ob es irgendwie explizit so steht.



Kann man so harsch sehen. Man muß sich aber auch darüber im klaren sein: Man kann nur das auswerten, was man an Daten bekommt. Auf Daten zu bestehen, die man nicht bekommt, hilft auch keinem weiter.


Genauso muss man sich im klaren darüber sein welche Schlüsse man aus den vorhandenen Werten ablesen kann und welche nicht.




Nein, das ist nicht möglich. Es sei denn, Du überzeugst die anderen Wertequellen, dem System von Igor zu folgen. Nur dann hast Du zu jedem Benchmark auch einen Watt-Wert.


Das wäre natürlich der Idealfall, den man mangels Testwerten der anderen Seiten nicht erreichen kann.
Dennoch kann man von jedem Tester jeden Einzelwert den dieser liefert miteinander Mitteln. Ein Tester der 20 Einzelwerte liefert bekommt damit automatisch ein höheres Gewicht als einer der nur einen liefert.
Wenn du aber die Werte eines jeden Testers zuvor schon mittelst hat jeder Tester erstmal die selbe Gewichtung, mit Ausnahme natürlich der willkürlichen Gewichtung die du dann noch dazu wählst.

Damit wäre dir Rechnung einfacher, und die Gewichtung automatisch in Abhängigkeit der Testanzahl integriert.




Du hast Recht, bei der 4090 geht das daneben mit diesem beachtbaren Unterschied zwischen AVG und Max. Aber das ist auch die Ausnahme von der Regel.


Das betrifft alle Karten die sich nicht (fast) immer am Powerlimit bewegen. Bei diesen kann man tatsächlich einfach das Powerlimit hernehmen und bekommt in der Regel in der überwiegenden Anzahl an Beispielen Werte die genau genug sind.

Und das betrifft eigentlich so gut wie alle Karten der Lovelace Generation, die 4060er vielleicht kaum, aber darüber eigentlich alle mehr oder weniger.

Bei den schnelleren Karten kommen noch CPU-Limits dazu welche die Leistungsentfaltung behindern, ohne dass ihnen dafür die geringere Leistungsaufnahme "gutgeschrieben" wird. Bei kleineren Karten ist das nicht wirklich der Fall, da gibt es eigentlich nur die unterschiedliche Leistungsaufnahme abhängig von der Software.

Wobei bei den kleinen Karten dann wieder VRAM-Mangel auftreten kann, dieser erzeugt ja dann bekanntermaßen starke Leistungseinbrüche, aber auch eine geringere Leistungsaufnahme. Insgesamt natürlich immer noch mit einer deutlich zurückgehenden Effizienz, aber eben nicht so stark wie es suggeriert wird wenn als Leistungsaufnahme jene verrechnet wird wenn die Karte "normal" läuft.


Bei kleineren Karten geht die Differenz mitmaßlicherweise auf unter 10W zurück. Und auch bei der 4090 ist sie nicht wirklich hoch.


Bei 400W würde ich 10W als vernachlässigbar einstufen, bei 100W aber nicht mehr.

Und bei der 4090 sind die Unterschiede eben wirklich hoch, da kann es zwischen 250W und 450W so ziemlich alles geben, wobei reine Raster-Titel eigentlich so gut wie immer unter 400W bleiben und fast nur RT-Spiele über die 430W kommen.



Mich steht da auch immer die Frage im Raum: Nur die Werte einer einzelnen Quelle verwenden? Und dabei eien Vielzahl an Quellen ignorieren, die zwar nicht perfekt, aber halbwegs nahe dran sind?


Hängt wie gesagt davon ab was man damit machen will.
Ich würde die anderen Werte nicht ignorieren, aber eben als das behandeln was sie sind, und nicht zweckentfremden für Dinge wofür sie nicht geeignet sind.

Die meisten Leser dürften ohnehin die near max Werte mehr interessieren, daran muss sich schließlich Stromversorgung und Kühlung orientieren.

Die tatsächliche Effizenz ist zwar technisch interessant, hat aber ansonsten kaum Auswirkungen. Selbst mit den hohen Energiepreisen macht es eigentlich kaum einen Unterschied ob man sich in der selben Leistungsaufnahmeklasse für die effizientere oder etwas weniger effizientere Karte entscheidet.




Bei insgesamt nicht weltbewegenden Differenzen und mutmaßlicherweise nur wenigen Grafikkarten, wo das wirklich zutrifft.

Das interessante ist eher, dass die Auswirkungen auf die anderen Karten die es eben nicht betrifft gegen 0 gehen. Wenn einer Karte praktisch durchgehend im Powerlimit liegt ist es ziemlich egal wie viele Tests du verrechnest, das Ergebnis wird sich nicht großartig ändern, und nur die Karten welche tatsächlich große Unterschiede in der Leistungsaufnahme abhängig von der Software haben eine wirkliche Veränderung zeigen.

Ich würde das eher als Win-Win bezeichnen, die Datenqualität jener Karten die eine annähernd konstante Leistungsaufnahme aufweisen verschlechtert sich nicht, die Datenqualität der anderen verbessert sich.

Leonidas
2023-08-28, 11:36:30
Du verrechnest AVG Performancewerte mit Leistungsaufnahmewerten zu einem Effizienzwert. Damit implizierst du dass die Leistungsaufnahmewerte AVG-Werte sind, egal ob es irgendwie explizit so steht.

In Deinem Sinne: Korrekt. Hier liegt ein Fehler der bisherigen Betrachtungen zur Effizienz meinerseits. Ob jener relevant hoch ist, wissen wir noch nicht sicher, aber wir haben genügend Anhaltspunkte, um es für nachprüfenswert anzusehen.




Genauso muss man sich im klaren darüber sein welche Schlüsse man aus den vorhandenen Werten ablesen kann und welche nicht.

Stimme zu.





Dennoch kann man von jedem Tester jeden Einzelwert den dieser liefert miteinander Mitteln. Ein Tester der 20 Einzelwerte liefert bekommt damit automatisch ein höheres Gewicht als einer der nur einen liefert. Wenn du aber die Werte eines jeden Testers zuvor schon mittelst hat jeder Tester erstmal die selbe Gewichtung, mit Ausnahme natürlich der willkürlichen Gewichtung die du dann noch dazu wählst.

Nein, genau das tue ich schon: Quellen mit vielen Werten bekommen eine (viel) höhere Gewichtung als Einzelwerte. Faktisch nehme ich die Einzelwerte nur noch mit rein, weil sie letztlich nicht deutlich abweichen.

Aber der Kern Deiner Kritik war ein anderer: Es sind unbekannte Werte, in Bezug auf MAX- oder AVG-Verbrauch. Ob eine Seite 20 Werte aufstellt, macht sie nicht besser, wenn sie keine Angabe liefert, ob dies der MAX- oder AVG-Verbrauch während des Benchmark-Durchlaufs war.





Und das betrifft eigentlich so gut wie alle Karten der Lovelace Generation, die 4060er vielleicht kaum, aber darüber eigentlich alle mehr oder weniger.

Richtig, es ist eben Lovelace-spezifisch. Deswegen dauert es auch ein wenig, ehe dieser Umstand erkannt und berücksichtigt wird. Gerade wo ich nicht der Tester, sondern nur der Datenauswerter bin.





Bei 400W würde ich 10W als vernachlässigbar einstufen, bei 100W aber nicht mehr.

Und bei der 4090 sind die Unterschiede eben wirklich hoch, da kann es zwischen 250W und 450W so ziemlich alles geben, wobei reine Raster-Titel eigentlich so gut wie immer unter 400W bleiben und fast nur RT-Spiele über die 430W kommen.

Ich spekuliere nicht, sondern werde mich von den Werten leiten lassen. Geht man von Igor aus, sind es aber weniger als 100W Differenz zu den von mir aufgestellten 418W.







Ich würde das eher als Win-Win bezeichnen, die Datenqualität jener Karten die eine annähernd konstante Leistungsaufnahme aufweisen verschlechtert sich nicht, die Datenqualität der anderen verbessert sich.

Richtig. Ich muß halt nur vorsichtig sein, alles auf eine Karte, sprich eine Quelle zu setzen. Ohne dass das wenigstens eine andere Quelle bestätigt, wird es kaum gehen.