PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 19. Mai 2023


Leonidas
2023-05-20, 11:50:17
Link zur News:
https://www.3dcenter.org/news/news-des-19-mai-2023

GerryB
2023-05-20, 12:05:15
Ist bei der 4070 jetzt 215W die TDP als Wert?

lt. Igor gibts da Unterschiede beim Binning, fast alle verbauten Chips sind sogar besser und
können eigentlich den StockClock schon mit ca.200...205W.
(wenn man net gerade Pech hat, ist die 4070 also genauso gut wie die 4070Ti in der "Summe" aus Perf+TDP)

Die "Summe" aus Perf+TDP = ca. 46% ist eigentlich bei der 4070(Ti) gar net schlecht ggü. dem Vorgänger.
ne 4070Ti+4080 profitiert nur übermäßig vom schlechten/ineffizienten Vorgänger, während sich die 4070 mit dem
besten Vorgänger hinsichtlich Effizienz messen muss

Ansonsten, Danke an Leo für die schöne Übersicht!

Leonidas
2023-05-20, 12:22:06
Bisher nehme ich da die offiziellen 200W an. Das mit den 215W müsste am besten noch jemand anderes verifizieren, bislang ist Igor da der einzige.

Gast
2023-05-20, 14:22:29
Ist bei der 4070 jetzt 215W die TDP als Wert?



TDP ist bei den Lovelace Karten eh praktisch egal, da die sich so gut wie nie am Powerlimit befinden.

Gast
2023-05-20, 18:04:25
TDP ist bei den Lovelace Karten eh praktisch egal, da die sich so gut wie nie am Powerlimit befinden.

Na ja.
In alten Rasterspielen und in pure Rasterspielen nicht.
In Spielen mit Raytracing bist du schnell am TDP Limit, auch bei der 4090. Habe selber die Erfahrung mit einer 4090 Suprim x (480w Stock, 510W oc) im Cyberpunk gemacht. Das sogar mit DLSS2.
Von daher werden die Karten von Rasterspielen lediglich nicht ausgereizt, weil die TDP nicht nur für die Rastereinheiten/FP32 sondern auch für die RT und Tensor Cores hinhalten muss, somit ist die TDP höher als was die Rastereinheiten überhaupt bei der Spannung und Frequenz verbrauchen können.
Das wird man mit der Zeit auch sehen, je moderner die Benchmark Sets der Reviewer sein werden, desto höher wird die reale TDP der Ada Karten ausfallen, bis die einmal nur noch im TDP Limit laufen.

Altehardware
2023-05-20, 23:08:51
man kann solche vergleiche machen aber preise sollte man immer an der virtuellen Straße messen
Der Indikator als erstes ist der asiatische markt
danach folgt USA und zuletzt EU
Der Rest der welt kommt dann langsam hinterher.
Zum glücki st ada udn ampere von der arch identisch
Die unterschiede sind klein
mehr l2 Cache
verbesserter RT core
verkleinerter chip n5 statt n8 akä n10

daher skaliert das 1=1 wie zuvor nur im Takt und sm menge

Daher machen die preise immer den Umrechnungskurs aus und der ist ungünstig wie lange nicht mehr.
1-1,07

Daher sehe ich die Nachteile der rtx4060 und rtx4060ti 16gb allein beim preis abseits des ungünstigen vram Taktes

Die rtx4060 bei 300$ oder bei uns 329€ und nur 8gb vram könnte die sku knapp gleichschnell werden wie die rtx3060 (+- 7%)

und die rtx4060ti mit +10% schneller als die rtx3060ti
Das rechtfertigt kein upgrade erst recht nicht für 449€ und 559€

Derzeit ist einzig die rtx4090 und rtx4070 P/L Sieger bei ada gen.

nehme ich das zur uvp bzw Marktpreis aktuell tut sich da nix
rtx3060 üblich sind aktuell 319€ nehme ich die 7% dazu wären es 340€
quasi kleines plus
gleiches gilt für die rtx4060ti die auch nur 10% schneller ist
ne rtx3060ti kostet um die 389-399€
einziges Modell das sich als upgrade fürn rtx3060 lohnt ist die rtx4060ti 16gb aber nicht für 559€
Entweder nvidia spendiert den modellen bald 20gbps oder 22gbps vram was die Leistung um min 20% steigen lässt oder ich überspringe die gen bis der refresh kommt als rtx5060
mit dem vollen ad106 36sm mit 22gbps chips=352gb/s 2,6ghz = +73%

Gast
2023-05-21, 03:25:41
Na ja.
In alten Rasterspielen und in pure Rasterspielen nicht.
In Spielen mit Raytracing bist du schnell am TDP Limit, auch bei der 4090. Habe selber die Erfahrung mit einer 4090 Suprim x (480w Stock, 510W oc) im Cyberpunk gemacht. Das sogar mit DLSS2.


Also ich hab bei meiner 4090 außerhalb von Furmark noch nie das Powerlimit gesehen.
Cyberpunk Overdrive kommt mit bis zu 420W nahe dran, aber niemals ins Limit. Und mit DLSS kommt man ab Balanced schon ins partielle CPU-Limit und damit deutlich niedrigere Leistungsaufnahmen.



Von daher werden die Karten von Rasterspielen lediglich nicht ausgereizt, weil die TDP nicht nur für die Rastereinheiten/FP32 sondern auch für die RT und Tensor Cores hinhalten muss, somit ist die TDP höher als was die Rastereinheiten überhaupt bei der Spannung und Frequenz verbrauchen können.


Das kann man nicht wirklich generalisieren. Die Lovelace Karten verhalten sich im Gegensatz zu den Vorgängern mehr wie CPUs, mit kaum schwankenden Taktraten und je nach Software sehr stark unterschiedlichen Leistungsaufnahmen, zwischen 300W und 400W ist eigentlich alles drinnen, selbst im vollständigen GPU-Limit.
Und man kann auch nicht generell sagen, je neuer desto höher, oder mehr Raytracing entspricht einer höheren Leistungsaufnahme.

Nur mal als Beispiel, POE verbraucht im Schnitt um die 400W, Dialbo 4 so gut wie immer unter 350W, teilweise auch nur 300W, und das bei viel höhere Framerate und 100x besserer Optik.
Ich hab auch schon gesehen, dass mit dem Aktivieren von Raytracing neben der Framerate auch die Leistungsaufnahme einbricht, und wenn man Nvidia´s Analysen zu Cyberpunk, mit Auslastungen von um die 15% ohne SER sieht weiß man auch warum.
Raytracing mit divergierenden Strahlen kann zu schlechter Auslastung der Warps führen, und damit zu geringeren Leistungsaufnahmen als beim reinen Rastern.

Cyberpunk und Witcher 3 remaster sind dagegen eher die andere Richtung, mit Raytracing sind hier durchaus öfter mal 400W und mehr sichtbar.

Aber ums kurz zu machen, es gibt keine generelle Regel dass irgendeine Kategorie Spiele vorhersehbar zu höherer oder niedrigerer Leistungsaufnahme führt, man muss immer den Einzelfall betrachten.
Vom Powerlimit ist man aber selbst in Spielen die hohe Leistungsaufnahmen erzeugen aber immer noch ein gutes Stück entfernt.