PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 4. Juli 2022


Leonidas
2022-07-05, 10:54:00
Link zur News:
https://www.3dcenter.org/news/news-des-4-juli-2022

BlacKi
2022-07-05, 11:14:06
also die F/V curve bei hartware sieht jetzt nicht wirklich optimal aus.

bei meiner 3080 war alles unter 180w tdp nicht wirklich brauchbar. so weit runter wie im test sollte man nicht gehen. dafür taugt die karte im gesammten nicht, bios, VRM laufen da nicht mehr optimal.

ShinyMcShine
2022-07-05, 11:51:34
Ich würde mir ja für die nächste Generation eine einfache Möglichkeit per BIOS Umschalter wünschen, um eine 4080 oder 4070 mit einem 75%-80% Powerlimit zu betreiben (nicht nur ein Silent-BIOS mit paar Prozent). Das mache ich jetzt schon mit meiner 3070Ti aber man muss das halt immer via externem Tool (Inspector) regeln, was ich unschön finde. Es ist enorm, was man damit rausholt (sowohl bei der Lüftergeschwindigkeit als auch beim Stromverbrauch), nur wenn man auf die letzten paar fps verzichtet.

Oranje7
2022-07-05, 12:46:05
m Vergleich von AMD-Setting #4 und nVidia-Setting #3 wird ein ähnlicher Abschlag auf die Verlustleistung erreicht: Bei AMD –76W weniger, bei nVidia –80W weniger.

Würde behaupten du wolltest nVidia-Setting #2 schreiben

Leonidas
2022-07-05, 12:49:31
In der Tat. Verrutscht. Gefixt! Danke für den Hinweis.

iamthebear
2022-07-05, 13:00:28
Bei Ampere skaliert der Takt relativ schlecht mit zusätzlicher Spannung/TDP. Das gibt die Möglichkeit ohne viel Leistungsverlust schnell mal 20% an Verlustleistung einzusparen. Darunter bricht die Performance allerdings relativ schnell weg, was vor allem durch 2 Faktoren ausgelöst wird:
a) Nvidia stellt keine Spannungskurve unter 0.7V zur Verfügung bzw. selbst bei manuellem Tuning geht es ab da relativ schnell bergab.
b) Ein großer Teil der Verlustleistung (120W bei der 3090, bei der 3080 vermutlich um die 70W) skaliert nicht mit Takt oder Spannung. Das ist in erster Linie der VRAM bzw. das Speicherinterface bzw. vermutlich auch Displayausgänge etc. Je niedriger der Verbrauch desto höher ist der nicht skalierende Teil.

Wenn die 2 Punkte mit 2780@450W bzw. 3020@550W stimmen, so bedeutet dies, dass sich Ada hier komplett anders verhält.
Es scheint so als würde der Takt hier deutlich stärker skalieren (ca. P = f^3). Das erklärt auch warum die 4080 so hoch gepushed wird: Man bekommt einfach viel mehr dadurch heraus.
Umgekehrt wird der nicht skalierende Teil etwas geringer, da das Speicherinterface etwas dünner ist.

Was die Taktraten angeht: Man darf sich hier von den 2.2/2.5GHz nicht verwirren lassen. Nvidia gibt immer deutlich niedrigere Taktraten an als in der Praxis erreicht werden. Die Aussagen von kopite & Co beziehen sich logischerweise immer auf den realen Boostclock in Spielen.

Wenn ich die realen Taktraten mal grob hochrechne:
4090 450W: (450W-100W nicht skalierend) / 128 = 2.73W/SM @ 2780MHz
4090 550W: (550W - 100) / 128 = 3.52W/SM @ 3020MHz
4080 420W: (420 - 80) / 80 = 4.25W/SM
Ich würde also grob 3150MHz relaen Boosttakt für die 4080 schätzen.

Daraus ergibt sich:
4090@2780MHz: 2780MHz * 128SM * 128FP32/SM * 2(FMA) = 91.1TFlop
4080@3150MHz: 3150 * 80SM * 128 * 2 = 64.5TFlop

4090 vs. 4080 = 91.1/64.5 = 1.41x TFlop/s woraus dann in etwa 25-30% fps in 4K werden sollten. Es läuft also auf eine ähnliche Situation wie bei der 1080 Ti vs. 1080 hinaus bzw. 2080 Ti vs. 2080.

Leonidas
2022-07-05, 13:02:23
NV wird das schon so biegen, dass 4090 nicht massiv vor 4080 liegt. Wozu auch - alles was 4090 ausläßt, kommt später der 4090Ti zu gute.

Gast
2022-07-05, 13:35:55
Das mache ich jetzt schon mit meiner 3070Ti aber man muss das halt immer via externem Tool (Inspector) regeln, was ich unschön finde.


Muss man nicht, das kann man ganz einfach auch mit dem GFE Overlay erledigen, sogar viel einfacher als mit dem Inspector.

nairune
2022-07-05, 13:37:18
Wieder mal schön "Undervolting" mit "niedrigerer Betriebspunkt" vermischt.
Dadurch ist der Vergleich der zwei Karten nichtssagend, denn UV hängt *immer* von der schwankenden Chipqualität ab.
Ändert man einfach nur den Betriebspunkt, also ein niedrigerer Maximaltakt oder besser ein niedrigeres Powerlimit, erhält man viel allgemeingültigere Ergebnisse und kann auch verschiedene Karten vergleichen.

Und natürlich gehen auch AMD Karten viel weiter runter, wenn man will (MPT). Selbst mit 130W ("ASIC") liefert meine 6900 XT noch 70% Leistung, ohne jegliches UV. Was dann mal gar nicht so schlecht aussieht im Vergleich zum GeForce Setting #4.

Gast
2022-07-05, 15:35:45
Wieder mal schön "Undervolting" mit "niedrigerer Betriebspunkt" vermischt.+1
So spannend solche Test auf fps/Watt Optimierungen hin auch sind, braucht es immer auch Vergleich zu kleinere(r/n) Lösung(en), denn erst dann zeigt sich, ob sich ausgebremste Karte lohnt. Rein vom bang per buck her sowieso nie.

Lehdro
2022-07-05, 16:11:42
Was auch immer die beim AMD Setting gemacht haben kann ich nicht so ganz nachvollziehen. Die haben einfach nur stumpf den Takt runtergeregelt, was aber kein UV an sich ist. Der Vergleich ist doch lächerlich, bei NV wird die V/F Curve handbearbeitet und bei AMD wird einfach nur F runtergedreht und einmal an der Spannung gedreht - was zum Geier? Die Karte kann sich so zum Beispiel nach eigenem Gusto beispielsweise 1.1V bei 2 GHZ drauf hauen - super effizient - nicht.

Bei AMD einfach nur die ASIC runterzudrehen ist wahrscheinlich sogar viel besser als alles was die da veranstaltet haben. Lächerlich. Wenn man wirklich gewollt hätte, so könnte man ASIC, Spannung und Takt anfassen, damit es wirklich UV wird. Oder halt MPT nutzen wenn man wirklich tief drin sein möchte in der Materie.

nairune
2022-07-05, 16:22:35
Was auch immer die beim AMD Setting gemacht haben kann ich nicht so ganz nachvollziehen. Die haben einfach nur stumpf den Takt runtergeregelt, was aber kein UV an sich ist.

Selbstverständlich hat er UV gemacht mit einem -50mV Offset, was ist da schwierig nachzuvollziehen? Screenshot ist doch offen.
Aber ja, Powerlimit zu verändern ist sinnvoller, wenn man ein gleichbleibendes Minus bei der Leistung haben möchte. Sonst kann man auch mal mit weit größeren Einbrüchen überrascht werden, wenn es ein "Hochtaktspiel" ist.

Lehdro
2022-07-05, 16:32:09
Selbstverständlich hat er UV gemacht mit einem -50mV Offset, was ist da schwierig nachzuvollziehen? Screenshot ist doch offen.

Problem ist das er die V/F Curve dann in die ineffiziente Richtung schickt, sobald er den Takt unter den Standard drückt. Du musst Takt und Spannung simultan anfassen, wenn du die ASIC nicht nutzen willst.

Sprich, die Karte hat mit 2400/1.1V eine komplett andere V/F Curve als mit 2000/1.1V. Normalerweise ist die Spannung als "maximale Spannung für den eingestellten Takt" gedacht - so dass 2400/1.1V eine bessere Curve als 2000/1.1V hat. Du schneidest mit seiner Methode den Takt nach oben ab, aber lässt die Spannung gleich. Das ist so als wenn du bei NV die Curve nach rechts(!) ziehen würdest. Dass ist das Gegenteil von UV. Der merkt es nur nicht, weil der geringere Takt trotzdem zur Ersparnis führt, weil andere Betriebspunkte angesprochen werden.

Mal ganz davon ab das 1.1V verdammt viel sind eigentlich.

nairune
2022-07-05, 16:51:25
Ach so meinst du das, ja bei seinem Runtertakten danach geht dann natürlich alles vor die Hunde.
Was ja wie gesagt eh ne blöde Methode ist.

Der Punkt ist jedenfalls, dass das nicht vergleichbar zwischen den beiden Karten ist, Leos Schlussfolgerungen und die nette Tabelle dementsprechend irreführend.

P.S.: ist halt ne Lotterie, meine 6900 hat praktisch null Spielraum :(

Gast
2022-07-05, 16:57:12
Gestern: Find' ich voll blöd, dass es keine Green Editions mehr gibt.
Morgen: Alder, da warte ich doch auf die 4090Ti, statt die krüppelige 4090 zu kaufen.

Nvidia wird beim Marketing sehr schlau sein müssen.
Sollten die Karten mit vermuteten Specs kommen, wird der Ti-Aufpreis extremst werden. Oder/Und nur Vorstufe zu SUPER statt Vollausbau mit Max.

Nicht der eine Gast
2022-07-05, 17:27:45
Mit welches Recht darf man eine solche Aussage "nVidia scheint aber dennoch diese Diszplin einen Hauch effizienter hinzubekommen" mit ausgewählten selbst umgerechneten Werten (wo kommen die Verbrauchs und Frequenzangaben her. Hartware gibt andere Frequenzen und Leistungsangaben an). Und dann wird das einzigste Szenario angegebn bei dem Nvidia bessrer wegkommt. wobei es nicht verwunderlich ist, dass eine hochgeprügelte Grafikkarte bei der Reduzierung eum einen bestimmte Leistungsaufnahme prozentual weniger verliert als eine Karte die näher am Sweetpot ist. Ein Vergleich bei gleicher Leistung oder Aufnahme gewinnt die Amd Karte.
Das hier Nvidia und Intel gegenüber AMD besser gestellt wird ist nicht neues.

Gast
2022-07-05, 18:42:53
Ich denke zu dem theoretischen Verbrauch von 4090 ti und insgesamt auch bei der Beurteilung des Verbrauchs der 4090 gibt es noch mehr zu berücksichtigen.
1. Wenn man die aktuell noch fiktive, aber ziemlich sicher kommende 4090 ti/titan (ausser wenn AMD nicht mal mit der 4090 mithalten kann) mit dem fast vollauebai des ad102 machen wird, kann man dann auch die frequenz im Bereich der 4090 belassen und nur durch das erhöhen des tdp mit den extra Einheiten einiges an Performance rausholen (wird halt abhängen von dem was amd zu bieten haben wird). Ergo könnte die Effizienz ähnlich der 4090 ausfallen.
Ich denke hier hängt alles nur von AMD ab, wie die Konkurrenz sein wird.

2. Die fiktive 4080 ti muss noch zwischen die 4080 und 4090, diese wird mit hoher Wahrscheinlichkeit auf dem ad102 basieren müssen was wiederum 2 Möglichkeiten offen lässt: entweder mehr SM (z. B. 110-120) und niedrigere Taktraten (wie 4090), oder weniger SM (90-100) und Taktraten wie die 4080. Daher könnte auch die erste Version der 4080ti genauso effizient wie die 4090 sein.
Alles komische Überlegungen, wie wenn ein ad102,5 fehlen würde (für die 4080 ti). Die 2. Möglichkeit scheint ziemlich blöd zu sein, weil man so viel Fläche deaktivieren müsste, die zweite kommt mir eher sinnvoller voll.

OpenVMSwartoll
2022-07-05, 18:47:56
Wenn eine Seite kritisiert, dass Du permanent pro AMD bist und die andere Seite behauptet, Du würdest NV und Intel bevorzugen, dann machst Du wohl was richtig.

Nazar
2022-07-05, 19:32:31
Den Pro AMD Artikel würde ich wirklich gerne mal verlinkt bekommen. Das ist mein Ernst. Die/den Artikel muss ich vollkommen überlesen haben. Bisher war alles, was hier über AMD berichtet wurde, immer irgendwie negativ und alles was nV macht, total super.
Auch in diesem Artikel wird fast schon verzweifelt ein nV ist besser draus, obwohl es genau umgekehrt ist. Man muss eben nur wieder "Extreme Cherry Picking" betreiben.
Ich kann mich noch an den Artikel pro G-Sync erinnern, in dem doch tatsächlich behauptet wurde, dass die "geschlossene" Technik seitens nV total super für den Nutzer sei. In dieselbe Kategorie gehört dieser Artikel. So verzweifelt und tragisch, dass es schon wieder erheiternd ist.
Wenn man weiß, wer die Artikel verfasst, kann man damit leben, weil es schon vorher klar ist, woher der Wind wehen wird. :wink:

GerryB
2022-07-05, 22:03:30
Hartware= ???
Muss man solche Noobs kennen, die noch nie etwas vom MPT gehört haben.

Offset nur im Treiberpaneel einstellen kann Jeder. Wieso das net <1100mV gehen soll ist mir schleierhaft.
(Bsp.1 mit nem guten Chip siehe Anhang, Tornavida im CB-Thread=älterer Treiber vor >1 Jahr=schlechter Score)

Wer etwas mehr Ahnung hat, kann MPT benutzen und Volt+Watt extremer cappen.(Bsp.2+3 mit gutem Vram siehe Anhang, RaceOwl im Luxx)

Mangel76
2022-07-05, 22:40:31
nVidia scheint aber dennoch diese Diszplin einen Hauch effizienter hinzubekommen

Das ist aber die falsche Interpretation der Ergebnisse. Vielmehr war nVidia wohl mit der 3080 bei Standardeinstellungen sehr viel weiter im ineffizienten Bereich als die AMD-Karte. Durch leichtes zurückfahren kann natürlich mehr Energie eingespart werden bei gleichem Leistungsverlust (bzw. weniger Leistungsverlust bei gleicher Energieeinsparung). Das passiert halt, wenn man weiter rechts auf einer Kurve mit wachsendem Anstieg sitzt. Ist also eher ein Indiz für die Ineffizienz der Werkseinstellung von nVidia als für eine "Effizienz" beim Undervolten.

Gast
2022-07-06, 00:10:22
Die N21xtx taktete schon bis 3,225...gähn. Zwar unter LN2, aber wenn hier schon darüber berichtet wird, das man ja auch fernab der Werksempfehlung massiv auf Ada einschlagen kann, geht das bei RDNA2 schon länger. Warum sollte das bei RDNA3 nicht gehen? Daher...langweilig, beim Takt kann Nv AMD nicht einholen und genau deshalb tun sie es auch nicht. Da taktet schon die Vorgängerkonkurrenzversion ala 6900xt schneller, als das was Nvidia mit Ada bringen will. Glaube nicht das Nvidia so blöd ist und selbst darauf hinweist, denke daher fahren sie den Takt so zurück das sie vorne bleiben. Vergleichsweise wirkt es dann sogar sparsamer, weil die letzten 5% auch mal 100% mehr kosten können. Sinnlos, ja die sollen lieber Greeneditionen bringen, 5% weniger Leistung bei 30% höherer Effizienz klingt viel logischer.

Es ist nichts über eine 4090ti bekannt...eher Titan mit 48GiB, die kein Spieler wirklich braucht.

Leonidas
2022-07-06, 03:19:19
Wenn eine Seite kritisiert, dass Du permanent pro AMD bist und die andere Seite behauptet, Du würdest NV und Intel bevorzugen, dann machst Du wohl was richtig.

Hoffen wir es. Die andere Auflösung wäre: Man macht alles falsch ;)



Das ist aber die falsche Interpretation der Ergebnisse. Vielmehr war nVidia wohl mit der 3080 bei Standardeinstellungen sehr viel weiter im ineffizienten Bereich als die AMD-Karte.

Ein überlegenswerter Einwand. Dadurch können sich relative Unterschiede natürlich problemlos verzerren lassen.

Wobei die Frage ist, wieso 6800XT auf der TDP der 6900XT per default so viel "effizienter" eingestellt sein soll.

Blöder Shekel-Huang
2022-07-06, 03:34:20
Ist ein überdurchschnittlich gutes Modell von Gerry B.
Meine rx 6800xt verbraucht 30 W mehr bei gleicher Leistung, mit bisschen MPT-Spielerei und ausprobieren (230 W GPU, 270 W Gesamt).


Wie viel GFlops/W erreichen den rtx 3090/3080/3070?
Solche Angabe überhaupt sinnvoll umrechenbar in FPS/Watt?
Sind rtx 4080/4070 dann so ineffizient?
Shekel-Huang möchte die Käufer wohl vermehrt animieren 2000 Shekel für rtx 4090 auszugeben.


Absolut lächerlich wenn die rtx 4070 so beschnitten im VRAM auf den Markt kommt. Mit Dlss und fsr 2.0 wird dank Bildrekonstruktion und Upscaling genug Leistung für 4K UHD vorhanden sein, aber 10 GB Vram = Nö.
Dann kommt nur die rtx 4080 in Frage.

Also wieder mal 1000+ € um auf der sicheren Seite zu sein. Der Rest kann trotz 500 - 700 € Ausgabe weiterhin in 1440p anno 2015 spielen.
Sauerei!

OpenVMSwartoll
2022-07-06, 03:52:58
Hoffen wir es. Die andere Auflösung wäre: Man macht alles falsch ;)

[...]



Diese Interpretation scheint mir weit hergeholt. Deine Seite ist recht bekannt, Deine Analysen zu Produktlaunches finden Beachtung und Zuspruch. Deine Community ist dergestalt, dass ich mich hier recht gern aufhalte.

Gast
2022-07-06, 07:33:31
Die Karte startet mit max 375w und wenn weder das Betriebssystem noch das Netzteil binär kompatibel sind, ist das die max TPG. Wo dann der Takt liegt, kann man sich gut vorstellen.

Ich glaube man hat PCIe 5.0 immer noch nicht verstanden. Wenn die Karte max 2750MHz schaffen sollte, dann im sec Bereich, ggf auch nur my Bereich. Man sieht es super bei der 3090ti wie die weggeregelt wird am TPG Limit. Damit glättet man Peaks, droops und vdroops. AMD macht es bei der 6950 ähnlich. 600w können max 1sec anliegen. Das ändern auch Partner nicht, weil es Teil der Spezifikation ist. Ausser Nvidia verbaut bzw. lässt es zu, 2 Stecker zu verbauen, was ich nicht glaube, da dies bei der Versorgung und binär keinen Sinn ergibt.

Daher geben sie den vermeintlichen und stabilen Boostclock auch viel niedriger an.

Höherer Takt und damit höhere Leistung kann nur erreicht werden, wenn die TDP per Software binär auch erhöht werden kann.

Ja, das ist eine absolute Aussage! Die Zeiten des OC für lau sind ab PCIe 5.0 vorbei.

Gast
2022-07-06, 08:50:35
Wenn eine Seite kritisiert, dass Du permanent pro AMD bist und die andere Seite behauptet, Du würdest NV und Intel bevorzugen, dann machst Du wohl was richtig.

Es ist ziemlich offensichtlich, dass die Seite "Pro-Underdog" ist, und seit AMD den Underdog-Status verloren hat werden sie auch mal "härter" angefasst.

NOFX
2022-07-06, 09:57:43
Ein überlegenswerter Einwand. Dadurch können sich relative Unterschiede natürlich problemlos verzerren lassen.
Gehen wir mal davon aus, dass die 3080 eigentlich bei Setting 1 starten würde, wo sie ja noch recht effizient ist, würde die Skalierung bei beiden fast gleich aussehen.

Default ist sie einfach zu "hoch geprügelt" und verliert deshalb an Effizienz die man beim runterschrauben eben wieder gewinnt. Ist aber eher negativ zu bewerten, dass man es so weit getrieben hat...

Leonidas
2022-07-06, 10:04:34
Es ist ziemlich offensichtlich, dass die Seite "Pro-Underdog" ist, und seit AMD den Underdog-Status verloren hat werden sie auch mal "härter" angefasst.

Gut erkannt & formuliert.

Ätznatron
2022-07-06, 10:19:15
Es ist ziemlich offensichtlich, dass die Seite "Pro-Underdog" ist, und seit AMD den Underdog-Status verloren hat werden sie auch mal "härter" angefasst.

Klar werden sie härter angefasst. Immer schon. Ob mit oder ohne Underdog-Status.

Samthandschuhe sind hier jedenfalls nur für nVidia vorgesehen.

GerryB
2022-07-06, 11:55:06
Ist ein überdurchschnittlich gutes Modell von Gerry B.


Das waren Bsp. von Anderen aus den Threads bei CB+Luxx, wo Rx 6800 XT - UVer unterwegs sind.
Natürlich posten Leute mit guten Settings öfter als Leute wo net viel geht.
(das wird bei beiden Colours so sein, ... manche User probieren deswegen auch mehrere Grakas aus, ansonsten
fand ich den Vgl. bei Hartware nur dahingehend scruut, das bei der 3080 die Kurve richtig optimiert wurde, aber
bei der 6800xt im Prinzip nur ganz laienhaft Murks eingestellt wurde)

btw.
Meine eigene 6800nonXT ist net schlecht bzgl. Effizienz.
Würde denken, das die ASIC-Qualität ne Rolle spielt, ... siehe Anhang

Kannst ja mal in HWinfo bei Dir nachschauen. <85 ist stromschluckender
Gute 6900XTXH haben vereinzelt sogar Werte >90%.
Logischerweise sind die 6800XT nur Resteverwertung und oft net so gut/sparsam,
was man auch an der höheren mindest Spannung ab Werk sieht.
6900=825mV aber die 6800xt = 881mV, ... Das sind Welten bei der Effizienz!
(dort können dann UVer mit guten Chips ansetzen, selbst bei der 6900 geht noch etwas Weniger siehe Anhang 2+3)

bad_sign
2022-07-06, 13:46:55
Garry, irgendwann nehme ich mir wieder die Zeit und hämmere mal deine Werte in meine Karte.
Ich bin gespannt, ob es einen Unterschied macht :)

Gast
2022-07-06, 14:19:23
Samthandschuhe sind hier jedenfalls nur für nVidia vorgesehen.

Haha, Nvidia mit Samthandeschuhen angefasst, der war gut, ich hab selten eine derart Nvidia/Intel-kritische Seite gesehen.

H0fn43rrchen
2022-07-06, 15:19:18
Undervolting von Grafikkarten

Es zeigt vor allem eines, eine völlig falsche Herangehensweise von AMD und nVIDIA und die verquere Mentalität der meisten Käufer. Anstatt Grafikkarten auf den Markt zu bringen, die durchaus effizienter daherkommen könnten, setzen die Hersteller von Haus aus auf möglichst hohe Performance, nur weil es werbewirksamer ist - noch!

Es wäre wesentlich sinnvoller Grafikkarten in einem Zustand auszuliefern, der auf Sparsamkeit ausgelegt ist und dann - verglichen mit der Größe des Markts - einer Hand voll Kunden die Möglichkeit einzuräumen, die Leistung durch maximale Energieverschwendung auszureizen. Das käme uns allen zu Gute.

Lehdro
2022-07-06, 16:04:18
Undervolting von Grafikkarten

Es zeigt vor allem eines, eine völlig falsche Herangehensweise von AMD und nVIDIA und die verquere Mentalität der meisten Käufer. Anstatt Grafikkarten auf den Markt zu bringen, die durchaus effizienter daherkommen könnten, setzen die Hersteller von Haus aus auf möglichst hohe Performance, nur weil es werbewirksamer ist - noch!

Es wäre wesentlich sinnvoller Grafikkarten in einem Zustand auszuliefern, der auf Sparsamkeit ausgelegt ist und dann - verglichen mit der Größe des Markts - einer Hand voll Kunden die Möglichkeit einzuräumen, die Leistung durch maximale Energieverschwendung auszureizen. Das käme uns allen zu Gute.
Wenn die Hersteller eines aus der derzeitigen Lage mitnehmen dann folgendes: Der Kunde scheißt auf Effizienz. Und zwar komplett.

Sag mir wann sich die Kunden bitte für Effizienz entschieden haben, wenn die andere Seite erhöhte Leistung bot. Selbst beim krassesten Beispiel ever: Fermi vs. TeraScale 2, wo sogar noch ein Zeitvorsprung für AMD hinzukam, wurde mehr NV als AMD verkauft (https://www.3dcenter.org/dateien/abbildungen/GPU-Add-in-Board-Market-Share-2002-to-Q1-2022.png). An der Effizienz liegt die Kundenwahl also schon einmal nicht. Case closed.

Gast
2022-07-06, 17:50:10
Wenn die Hersteller eines aus der derzeitigen Lage mitnehmen dann folgendes: Der Kunde scheißt auf Effizienz. Und zwar komplett.

Laptop Markt ist nicht unwesentlich und dort ufert es ja auch nicht komplett aus.

Gast
2022-07-06, 22:38:59
Laptop Markt ist nicht unwesentlich und dort ufert es ja auch nicht komplett aus.
Naja, die 6800 ist in Sachen Effizienz nicht so weit weg von den mobilen Dingern.

GerryB
2022-07-06, 23:52:17
Garry, irgendwann nehme ich mir wieder die Zeit und hämmere mal deine Werte in meine Karte.
Ich bin gespannt, ob es einen Unterschied macht :)

Versteif Dich aber bitte net exakt auf die Zahlen, weil doch die Chiplotterie bei GPU+Vram eine Rolle spielt.
Da kann es schnell sein, das bei einem normal guten Chip dann 20MHz weniger oder 6mV mehr eingestellt werden müssen.
Die UVer hatten schließlich >1 Jahr Zeit ihre Graka mit sehr gutem Chip+Vram ganz genau auszutesten.
(und sicher mit wenig W und hoher Lüfterkurve dann ideale Temps<60°C)

btw.
Wir können uns auch im CB-Thread oder bei CB per PN unterhalten.

Gast
2022-07-07, 23:43:33
Das waren Bsp. von Anderen aus den Threads bei CB+Luxx, wo Rx 6800 XT k

Kannst ja mal in HWinfo bei Dir nachschauen. <85 ist stromschluckender
Gute 6900XTXH haben vereinzelt sogar Werte >90%.
Logischerweise sind die 6800XT nur Resteverwertung und oft net so gut/sparsam,
was man auch an der höheren mindest Spannung ab Werk sieht.
6900=825mV aber die 6800xt = 881mV, ... Das sind Welten bei der Effizienz!
(dort können dann UVer mit guten Chips ansetzen, selbst bei der 6900 geht noch etwas Weniger siehe Anhang 2+3)

Bei meiner 6800xt steht Asic: 86,9 %
Ich habe die Spannung unter "Voltage" sogar nur bei 968mV, SoC hingegen bei 1062. Beim SoC kann man eh nicht so viel sparen also lasse ich es dabei.
Dennoch brauche ich 230 W GPU und 270 W GPU-total um auf die Ergebnisse zu kommen, denke also alleine die Asic-Qualität ist kein Faktor.
Und ich habe schon das maximale an GPU- und Speichertakt mit den Einstellungen herausgeholt (darunter stürzt es ab).
Kann man halt nichts machen ;)

GerryB
2022-07-08, 08:55:19
Bei 200W braucht man i.d.R. nicht Vram@2150FT sondern es reicht 2100FT vollkommen aus.
Die erf. Bandbreite skaliert zum sinkenden GPU-Takt.
Das sollte mit deutlich weniger Volt bei VDDCI und MVDD gehen = spart ein paar W, die dann der Core nutzen kann.
dito
Kann man beim Cache (fclk etc.) evtl. analog sparen --> Werte siehe #31 (Bsp. von Duvar@6900)

Die Einsparungen beim Vram+fclk haben bei bad sign gefunzt.
(wenn der Vram halbwegs normale Qualität hat, ist es einen Versuch wert)

Lehdro
2022-07-08, 15:01:17
Laptop Markt ist nicht unwesentlich und dort ufert es ja auch nicht komplett aus.
Nein, gar nicht. Die sub 15W Klasse ist mittlerweile mehr oder minder tot, die 15W Klasse ist bis zu 28W expandiert (15W Modelle die mit 15W betrieben werden zu finden ist nahezu unmöglich) und die ehemalige 45W Klasse ist mittlerweile >65W. Intel hat da sogar noch einen drauf gesetzt und wird von der Presse dafür gefeiert (https://www.computerbase.de/2022-06/intel-core-i9-12900hx-test/).

Bei den mobile GPUs genau dasselbe. NVs MaxQ ist komplett im Sande verlaufen und AMDs "S" ist auch eher ein Rohrkrepierer. Das einzige was sich noch gut verkauft, sind ungewöhnliche TDP Settings bei dGPUs damit man den größeren Namen daraufschreiben kann (siehe auch AMDs Versuch) oder halt Geld spart weil die dGPU mit Watt anstatt Chipgröße hochgeprügelt wird. Mit Effizienz hat das bei NV aber auch nichts mehr zu tun, weil die Einschränkungen zu krass sind, siehe die eigentliche 60W RTX 3060. Die gibt es aber auch als bis zu 115W Version - völlig Banane.

Ich weiß nicht was du siehst, aber ich finde der Laptopmarkt ist mittlerweile fast schon schlimmer was das angeht. Auf Bezeichnungen kannst du noch weniger geben als vor wenigen Jahren schon, der Test des expliziten Laptopmodells ist mittlerweile nicht mehr nur ratsam, sondern Pflicht. Komplette Wundertüte.

Leonidas
2022-07-09, 03:04:16
Zum Glück geht das im Laptop-Markt nur im beschränkten Maßstab. Das kann man einmal bringen, aber nicht mehrfach.

Ich freue mich jedenfalls über mein 15W-Laptop, was auch auf 15W läuft. Und damit niemals warm wird, auch nicht bei 30 Grad dauerhaft.

Gast
2022-07-09, 08:10:45
Das Portfolie von NVidia gibt Rätzel auf, wobei die Karten nun in ersten Evaluierungsphasen der Partner und den Spezifikationen nach saufen als gäbe es kein morgen. Nvidia scheint darauf einzuprügeln.

Von AMD muss etwas kommen, dass denen Angst einjagt, sonst ist dieses Verhalten nicht zu erklären.

Ada ist was die Effizienz angeht ein kompletter Flop. Fermi 3.0.

Leonidas
2022-07-09, 10:12:13
Die Ironie ist: Rechnerisch wird die Effizienz (selbst der hochgeprügelten Modelle) besser als Ampere sein. Trotzdem ist die absolute Wattage zu hoch.