Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 26./27. Februar 2022
Leonidas
2022-02-28, 10:19:24
Link zur News:
https://www.3dcenter.org/news/news-des-2627-februar-2022
GerryB
2022-02-28, 10:26:46
Vllt. wäre 3070 vs 6800@144fps sinnvoller gewesen.
Die 3070 ist kaum schlechter als ne 6700/6800xt in dem Fps-Limit.
(wenn Jensen auf 1% Performance@stock verzichtet hätte, wäre man wohl schon ähnlich effizient,
falls man dann die Spannungskurve ein mue senken könnte ab Werk)
BlacKi
2022-02-28, 10:47:44
unglaublich wie groß der unterschied zwischen 3070 und 3070ti ist und wieviel die 6700xt dagegen säuft.
Leonidas
2022-02-28, 10:48:06
3070 gegen 6800 wäre in der Tat ein genauso passender Vergleich.
Der_Korken
2022-02-28, 11:00:05
Ich persönlich mag diese Benchmarks mit gecappten Frameraten nicht besonders. Das einzige, was man da sieht ist, wie gut gewisse GPUs sich bei Teillast drosseln können und wie dicht gewisse GPUs am Leistungslimit laufen. Aber was nützt es mir zu wissen, dass die 6800 nonXT in Spiel X bei fps-Limit Y 20% weniger als eine 6800XT verbraucht? Ich kaufe mir die 6800XT doch nicht, weil ich damit im fps-Limit ein paar Watt gegenüber der nonXT spare, sondern weil mir die Leistung der nonXT nicht reicht. Ich mein, wenn ich meine 1000€-Karte auf 1080p60 einbremse, um sagen zu können, dass ich jetzt die effizienteste Karte für den Job habe, könnte man mir entgegnen, dass eine 400€-Karte (wir vergessen mal die aktuelle Preissituation :tongue:) für einen Bruchteil des Geldes die gleiche Leistung geliefert hätte. Perf/W gut, Perf/€ schlecht.
Sobald man zwei Karten A und B vergleicht, von denen A das geforderte fps-Limit gerade so erreicht, B aber ganz locker, werden die Vergleiche extrem verfälscht. Während A mit vollem Takt durchboosten muss, um die fps zu erreichen, kann sich B entspannt zurücklehnen, 20% Takt rausnehmen und massiv undervolten. Da ist doch klar, wer hinterher den Effizienzvergleich gewinnt. Wenn man dann ein "Effizienzrating" mit solchen Ausreißern aufbaut, dann ist mir zumindest technisch/mathematisch überhaupt nicht mehr klar, was ich da eigentlich sehe.
Viel interessanter bei den Diagrammen von CapFrameX finde ich, dass die 3070Ti zwar schon Strom einspart mit fps-Limits, aber der GPU-Takt noch lange beim Maximum stehen bleibt. Wie ist das zu erklären? Bei Battlefield 1440p läuft die 3070Ti bei 144fps mit 1960Mhz@261W und bei 60fps mit 1947Mhz@155W. Bei Strange Brigade sind 1930Mhz@297W unlimitiert und 1965Mhz@190W bei 120fps. Schaltet die GPU einzelne SMs ab oder wie kann sowas sein? Bei AMD sinkt bei weniger Verbrauch immer auch der Takt. Und bei dieser Gegenüberstellung sieht man auch, dass die Radeon bei Teillast tatsächlich besser einspart als die Geforce (noch besser würde man es sehen, wenn man mehr Zwischenschritte testen würde, z.B. 80 und 100fps und wenn man die unlimitierten fps dazuschreiben würde, damit ich weiß ab wann überhaupt Einsparungen möglich wären).
BlacKi
2022-02-28, 11:05:30
erst ab 20-40% last reduziert nv den takt und zwar ziemlich stark. darüber gilt: je weniger auslastung, umso mehr takt.
Der_Korken
2022-02-28, 11:07:01
erst ab 20-40% last reduziert nv den takt und zwar ziemlich stark. darüber gilt: je weniger auslastung, umso mehr takt.
War das schon immer so oder erst seit Ampere?
Troyan
2022-02-28, 11:19:59
nVidia hat mit Desktop-Ampere den Stromsparmodus abgeschafft. Daher takten die Karten nicht mehr wirklich runter. Sieht bei den Notebooks komplett anders aus.
BlacKi
2022-02-28, 11:48:34
War das schon immer so oder erst seit Ampere?alle grafikkarten bisher haben ihren maximaltakt bei niedriger last gehalten und dann kam amd, ich glaube mit vega, auf die idee, unter geringer last taktraten etwas zu senken. oder schon bei fiji? ich mein so kam es doch erst zu der schlechten performance bei niedriger gpu last. hoher gpu takt erhöht die drawcalls, fiji war mit den schlechten dx11 treibern sowieso schon sehr früh im cpu limit was die gpu auslastung reduziert, und dann hat die karte runtergetatktet was dann das cpu limit noch verschlimmert hat. deshalb liegt bei nv auch immer max takt an bei niedriger last und niedrigen temperaturen, weil das oft ein zeichen von cpu limit ist, und ein runtertakten im cpulimit des grafikkerns das cpu limit verschlimmert.
ausserdem es ist ja nicht so, das nv taktraten bei niedriger last erhöht. das clock voltage table mit boost 3.0 ist ja fix. die maximalen taktraten werden dann aber je nach last und temperatur reduziert, bis der gaming takt anliegt. ich glaube seit turing und pascal schwankt sogar bei gleichem takt die voltage je nach last. da ist selbst bei max clocks also ein geringes einsparpotential vorhanden.
3070 gegen 6800 wäre in der Tat ein genauso passender Vergleich.
Da kommt die 3070 kaum ran, meine läuft mit 125w bei 4k@60Hz (2,05ghz bei max 0,925mV, non VRAM OC) Freesync, da geht der 3070 schon der VRAM aus (hatte mir die erst geholt, bin dann aber auf eine 6800 umgeswitcht, die hat einfach mehr Speicher). RT Leistung ist vergleichbar (ohne DLSS). Es ist unglaublich wie sparsam man eine 6800 non XT trimmen kann. Das zeigt, dass die Hersteller weit über dem Sweetspot liegen und drauf einprügeln das es kein morgen gibt - um ja vorne zu sein.
Auf der anderen Seite zeigt es, wie sparsam der Prozess eigentlich sein kann, es aber kaum genutzt wird.
Die 3070ti hat übrigens genau das gleiche Problem, die säuft im Speichermangel komplett ab und trottelt dann, mit massiven Framespikes. NVidia ist komplett auf DLSS ausgelegt, aber in einigen Spielen oder meinen gibt es da reichlich Bildmatsch, darauf habe ich keine Lust. Auch am LoD spielen sie ständig per Treiber umher. Bin mit AMD zufrieden.
alle grafikkarten bisher haben ihren maximaltakt bei niedriger last gehalten...
Schwachsinn...Nvidia kam damit zuerst. Maxwell!
Bei AMD war es ein Auslastungsproblem, genau das hat Nvidia mit Ampere auch und prügelt wie irre drauf ein, um das zu kaschieren.
Der Ansatz ist leider vollkommen verkehrt.
Wenn man die Effizienz vergleichen will sollte man nicht die Karten auf ein Frameratelimit setzen und den Verbrauch vergleichen, sondern die Karten aufs selbe Verbrauchslimit setzen und die Performance vergleichen.
Ersteres vergleicht nicht wirklich die Effizienz der Hardware, sondern wie sehr der Turboalgorithmus darauf getunt ist bei geringerer Auslastung bereit ist Takt und Spannung zu senken.
Und da bleiben Nvidia Desktop-Karten, ganz im Gegensatz zu mobilen Karten übrigens sehr lange am Maximaltakt, mit Reflex auf Maximaleinstellung sogar durchgehend, egal wie sehr die Last sinkt.
Der_Korken
2022-02-28, 12:21:09
alle grafikkarten bisher haben ihren maximaltakt bei niedriger last gehalten und dann kam amd, ich glaube mit vega, auf die idee, unter geringer last taktraten etwas zu senken. oder schon bei fiji? ich mein so kam es doch erst zu der schlechten performance bei niedriger gpu last. hoher gpu takt erhöht die drawcalls, fiji war mit den schlechten dx11 treibern sowieso schon sehr früh im cpu limit was die gpu auslastung reduziert, und dann hat die karte runtergetatktet was dann das cpu limit noch verschlimmert hat. deshalb liegt bei nv auch immer max takt an bei niedriger last und niedrigen temperaturen, weil das oft ein zeichen von cpu limit ist, und ein runtertakten im cpulimit des grafikkerns das cpu limit verschlimmert.
Bei Erreichen des Powerlimits haben spätestens die Polaris-Karten (afaik auch schon Fiji) runtergetaktet. Ob diese auch schon bei geringer Last runtergetaktet haben, habe ich nie kontrolliert, weil das für mich bisher uninteressant war. Grundsätzlich ist aber keine schlechte Idee. Das Argument mit den Drawcalls verstehe nicht so recht. Die Anzahl der Drawcalls pro Sekunde verhält sich proportional zu den fps, d.h. wenn ich die fps limitiere, dann reduziere ich auch die nötigen Drawcalls. Wenn eine GPU unlimitiert 120fps mit Takt X schafft, dann spricht nichts dagegen den Takt mit 60 fps cap auf 0,5*X zu reduzieren (mit etwas Reserve vielleicht noch).
Was schon eher Sinn machen könnte (und deswegen habe ich nach Ampere gefragt), dass man in niedrigen Auflösungen ein paar Shader abschaltet, weil die eh nicht richtig ausgelastet werden können, um den Takt möglichst hochzuhalten, damit der Frontend-Durchsatz möglichst hoch ist (da spielen Drawcalls eventuell eine Rolle). Das hatte Nvidia bei Maxwell/Pascal und (eigentlich auch bei Turing) nicht nötig gehabt, weil sie da auch in niedrigen Auflösungen die Leistung gut abrufen konnten.
Was schon eher Sinn machen könnte (und deswegen habe ich nach Ampere gefragt), dass man in niedrigen Auflösungen ein paar Shader abschaltet, weil die eh nicht richtig ausgelastet werden können, um den Takt möglichst hochzuhalten, damit der Frontend-Durchsatz möglichst hoch ist (da spielen Drawcalls eventuell eine Rolle). Das hatte Nvidia bei Maxwell/Pascal und (eigentlich auch bei Turing) nicht nötig gehabt, weil sie da auch in niedrigen Auflösungen die Leistung gut abrufen konnten.
Verdammt richtig, man sieht es ja und sah es der Vergangeheit schon immer, mehr bringt nicht immer mehr auf der Habenseite. Der Verbrauch schießt exorbitiant in die Höhe, gut zu sehen bei der 3080, 3080 12G und 3080ti. Alles ein und der gleiche Gurkenchip den Nvidia fast zu fleddert, 280 bis 450w PL.
Lehdro
2022-02-28, 20:24:09
Viel interessanter bei den Diagrammen von CapFrameX finde ich, dass die 3070Ti zwar schon Strom einspart mit fps-Limits, aber der GPU-Takt noch lange beim Maximum stehen bleibt. Wie ist das zu erklären? Bei Battlefield 1440p läuft die 3070Ti bei 144fps mit 1960Mhz@261W und bei 60fps mit 1947Mhz@155W. Bei Strange Brigade sind 1930Mhz@297W unlimitiert und 1965Mhz@190W bei 120fps. Schaltet die GPU einzelne SMs ab oder wie kann sowas sein? Bei AMD sinkt bei weniger Verbrauch immer auch der Takt. Und bei dieser Gegenüberstellung sieht man auch, dass die Radeon bei Teillast tatsächlich besser einspart als die Geforce (noch besser würde man es sehen, wenn man mehr Zwischenschritte testen würde, z.B. 80 und 100fps und wenn man die unlimitierten fps dazuschreiben würde, damit ich weiß ab wann überhaupt Einsparungen möglich wären).
Ich vermute mal dass das genau dasselbe Phänomen ist wie bei Zen 2/3 & RDNA2: eingeschobene Leertakte. Der angezeigte Takt ist hoch, allerdings ist der wirklich durchgehend anliegende Takt (wir sprechen hier von ns vs. ms) niedriger. Quasi effective Clock vs. angezeigter Takt. Bei AMD sieht man das bei HWinfo64 sowohl mit RDNA2 als auch Zen 2/3.
Die Anteile vom unlimitierten Verbrauch sind bei der RX 6800XT leider bis auf die 100% bezogen auf den unlimitierten Verbrauch der RTX 3070 Ti. Vielleicht könnte das noch korrigiert werden.
Ansonsten Top Beitrag.
Bei Erreichen des Powerlimits haben spätestens die Polaris-Karten (afaik auch schon Fiji) runtergetaktet. Ob diese auch schon bei geringer Last runtergetaktet haben, habe ich nie kontrolliert, .....
Also ich habe noch eine Rx480 mit 580 Bios bei 1300 MHz und leicht undervoltet bei 140W Powerlimit laufen
beim uniengine Benchmark läuft diese je nach Einstellung meist bei 1300 MHz auch wenn GPU Last 100% ist
Erst im Powerlimit taktet sie runter und geht dann auch schon mal auf 1170 MHz runter.
Gruß
Odd
Leonidas
2022-03-01, 05:05:56
Die Anteile vom unlimitierten Verbrauch sind bei der RX 6800XT leider bis auf die 100% bezogen auf den unlimitierten Verbrauch der RTX 3070 Ti. Vielleicht könnte das noch korrigiert werden.
Ansonsten Top Beitrag.
Scharfe Augen! Hier hab ich tatsächlich in Excel nicht aufgepasst. Gefixt!
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.