PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 22./23. Oktober 2022


Leonidas
2022-10-24, 09:35:13
Link zur News:
https://www.3dcenter.org/news/news-des-2223-oktober-2022

Gast
2022-10-24, 10:15:37
Ich bin gespannt, welche TGP NVidia für die 4090 Mobile ansetzt. Der Desktop Chip ist ja mit 320W spezifiziert. Bei Ampere sind sie noch mit einem Chip eingestiegen, welcher mit 220W spezifiziert war. Wird interessant werden, ob/wie weit sie die TGP nach oben setzen. Bisher war das Maximum im Notebook ja bei grob 150W.

Apropos Verbrauch: Ist da was von der 3060TI GDDR6X bekannt? Bei der 3070TI gab's ja im Vergleich zur 3070 kaum Mehrleistung mit massivem Mehrverbrauch. Ist das hier auch so, oder hat man hier den Balance-Akt Verbrauch vs. Leistung besser erreicht? Ist da schon was bekannt?

Leonidas
2022-10-24, 11:46:15
Noch nix bekannt, aber interessante Frage. Dies könnte den Wert der 3060Ti GDDR6X schmälern, wenn da die TDP hochgeht.

Aroas
2022-10-24, 12:19:08
Natürlich wird sich der Verbrauch der 3060Ti mit GDDR6X erhöhen.
nVidia pfeift doch bekanntlich seit geraumer Zeit auf effizient betriebene Karten. Hauptsache der Benchmarkbalken ist noch etwas länger.
Siehe RTX 4090, welche ab Werk total sinnlos auf 450W aufgeblasen wurde, obwohl sie gedeckelt auf 300 oder 350 Watt eine viel bessere Figur macht.

MiamiNice
2022-10-24, 12:52:19
nVidia pfeift doch bekanntlich seit geraumer Zeit auf effizient betriebene Karten. Hauptsache der Benchmarkbalken ist noch etwas länger.


Ja, sie haben endlich gelernt was relevant ist und was nicht :up:

konkretor
2022-10-24, 12:54:58
Igor hatte gestern auch schon drauf hingewiesen

https://www.igorslab.de/community/threads/raijintek-morpheus-8069-in-der-finalen-version-%E2%80%93-ein-halbes-kilo-volle-gpu-k%C3%BChlperformance-offiziell.7144/post-187602


Wieso mehr Ware in Markt rein werfen wenn die Leute bereit sind für solche Karten 2000 € und mehr dafür zu bezahlen. Scheint ja zu klappen bei Nvidia. Damit wird der Abverkauf der 30xx Serie angefeuert.

Dafür tut sich bei den Preisen im Einstiegssegment gar nichts.

So lange die Leute kaufen wieso Nvidia den schwarzen Peter zu schieben? Bei einem Marktanteil von über 80% können Sie doch machen was sie wollen.

Bei solchen Überlegungen kommen sicherlich solche Verfahren wie Simplex zum Einsatz.

http://www2.hs-esslingen.de/~mohr/praes/or.pdf

Damit lässt sich so etwas sehr gut ausrechnen. 1 teure Karte ersetzt wie viele kleine Karten mit der Marge x etc.

Aroas
2022-10-24, 13:02:40
Dafür tut sich bei den Preisen im Einstiegssegment gar nichts.


Deshalb kaufe ich keine neue GPU.

Meine Schmerzgrenze liegt bei 300€ für eine Grafikkarte. Dafür bekomme ich bei nVidia derzeit einfach mal gar nichts, was auch nur annähernd besser wäre als meine aktuelle Karte.

Bei AMD sieht es ein wenig besser aus, aber auch da ist bei einer RX 6600 Schluss. Das ist gerade mal der absolute Einstieg in die Mittelklasse.

Und so warte ich noch aufs nächste Jahr und schaue mir an, was die jetzt aktuellen Karten dann auf dem Gebrauchtmarkt kosten werden.
Ich glaube, wenn die Preisentwicklung weiter so anhält wie jetzt, werde ich mir wohl nie wieder eine GPU als Neuware kaufen.

Sonyfreak
2022-10-24, 13:17:33
Die RTX 3060 basiert auf GA106 (https://www.techpowerup.com/gpu-specs/nvidia-ga106.g966)und nicht auf GA104? :confused:

mfg.

Sonyfreak

Simon
2022-10-24, 14:25:57
Aus dem Absatz zu Spiderman:
Irritierend daneben die mit höheren Grafikqualitäten deutlich nach oben gehenden CPU-Anforderungen: Sofern da nicht mehr Bilder pro Sekunde zu berechnen wären, ergibt sich kaum eine solide Begründung dafür, anstatt eines Core i5-4670 (reguläre Empfehlung) einen Core i5-12700K (Empfehlung für "Ultimate RT") einsetzen zu müssen.
Erstmal ist der Core i5-4670 da der falsche Vergleich, weil nur medium details. Besser ist da eher die Spalte zu "Very High" mit 4K "Very High" @ 60 fps": da ist dann ein Core i5-11400 in den Anforderungen.
Und zweitens braucht der Einsatz von RT definitiv mehr CPU Power: Selbst, wenn nur ganz wenige Rays verschossen werden, so müssen die APIs trotzdem bedient werden, was CPU Zeit braucht. Das ist nicht die einzige zusätzliche Arbeit, die da anfällt: es wollen auch die BVH aktualisiert werden (kann man auch auf den GPU machen, erzeugt dann dort mehr Last) und Daten gestreamt werden. Auch das braucht gut CPU Time. All das ist der Grund warum jedes Spiel mit RT mehr CPU Leistung braucht, auch wenn "RT" eigentlich ja ein GPU-Feature ist.

Leonidas
2022-10-24, 15:11:51
Die RTX 3060 basiert auf GA106 (https://www.techpowerup.com/gpu-specs/nvidia-ga106.g966)und nicht auf GA104? :confused:

Natürlich GA106. Gefixt.




All das ist der Grund warum jedes Spiel mit RT mehr CPU Leistung braucht, auch wenn "RT" eigentlich ja ein GPU-Feature ist.

Danke für die Hinweise, sind gute Argumente. Mich irritiert nach wie vor der große Sprung. Von Medium zu High muss es gar nicht mehr werden - und von 4670 zu 12700K nur wegen RT?

MiamiNice
2022-10-24, 15:27:16
RT on = gut 20% weniger FPS im CPU Limit.
Für RT mag man daher paar extra Cores oder generell mehr CPU Power haben.

Gast
2022-10-24, 19:29:53
Irritierend daneben die mit höheren Grafikqualitäten deutlich nach oben gehenden CPU-Anforderungen: Sofern da nicht mehr Bilder pro Sekunde zu berechnen wären, ergibt sich kaum eine solide Begründung dafür, anstatt eines Core i5-4670 (reguläre Empfehlung) einen Core i5-12700K (Empfehlung für "Ultimate RT") einsetzen zu müssen.

Die Benchmarks der letzten 2 Jahre verpasst?

Raytracing benötigt immer mehr CPU-Leistung, und wenn Spiderman Remastered ein Indikator ist, benötigt es enorm viel CPU Leistung

GerryB
2022-10-24, 20:11:48
und RT profitiert auch von mehr Bandbreite (DDR5)
... möchte mal wissen was da die CPU auf dem Ram rummehrt

Leonidas
2022-10-25, 03:30:46
Benötigt "mehr" CPU-Leistung ist für mich nicht gleichbedeutend mit 7 Generationen neuer mit doppelter Core-Anzahl und höherem Takt. Das ist ein doppelter Dimensionssprung.

PS: .... aber lassen wir es auf den Test ankommen, kann ja alles stimmen.

Crazy_Borg
2022-10-25, 09:09:12
Der Sprung mit den CPU Generationen irritiert mich auch etwas.
Benötigt denn Raytracing (neben der Mehrleistung) irgendwelche "tollen" neuen Corefeatures der aktuellen CPUs?
Weil ausser Support für das übliche wie mehr/neueren Ram sowie mehr PCIe Lanes kamen doch sonst nur AVX-512 Extension dazu. Braucht Raytracing da vielleicht zwingend welche von?

Legendenkiller
2022-10-25, 09:54:29
"Den insbesondere bei der Pascal-Generation gepflegten Ansatz, Desktop- und Mobile-Lösungen auf Basis desselben Grafikchips auch gleich zu benennen, kann nVidia spätestens mit diesem Mobile-Portfolio nicht mehr durchhalten."

Können schon aber sie wollen nicht. Halt maximales Übervorteilen des Käufers oder wie nennt man sowas?

Was hindert sie die Chips so zu benennen wie sie nun mal sind ?
Bekommen dann die Marketing Leute ein Herzinfarkt und fallen tot um oder warum kann das Nameschema nicht durchgehaten werden ?

GeForce RTX 4080 Laptop GN21-X11 AD103 max. 80 Shader-Cluster, 16 GB
GeForce RTX 4070 Laptop GN21-X9 AD104 max. 60 Shader-Cluster, 12 GB
GeForce RTX 4060(TI) Laptop GN21-X9 AD104 max. 48 Shader-Cluster, 12 GB
GeForce RTX 4060 Laptop GN21-X6 AD106 max. 36 Shader-Cluster, 8 GB
GeForce RTX 4050ti Laptop GN21-X4 AD107 max. 24 Shader-Cluster, 8 GB
GeForce RTX 4050 Laptop GN21-X2 AD107 max. 24 Shader-Cluster, 8 GB

Und dann wären sie immer noch, wegen der kleineren TPD, deutlich langsamert als im Desktop.

Lehdro
2022-10-25, 11:26:10
Raytracing benötigt immer mehr CPU-Leistung, und wenn Spiderman Remastered ein Indikator ist, benötigt es enorm viel CPU Leistung
Spiderman ist Technikmüll was das angeht, ich zitiere mal:
Sehr interessant ist die Auslastung der einzelnen Kerne und Threads: Laut CapFrameX, dem Tool, welches wir für unsere Benchmarks nutzen, wird ein Ryzen 9 5950X zu 81 Prozent ausgelastet. Ein Ryzen 5 5600 hingegen "nur" zu 89 Prozent. Wenn eine CPU mit 32 Threads so viel zu ackern hat, müsste eine CPU mit nur 12 Threads alt dagegen aussehen - tut sie aber nicht. Wir können Ihnen nicht genau sagen, was das Spiel im Hintergrund mit den ganzen Threads macht, wir wissen aber, dass die Engine zur Laufzeit sehr viele Daten dekomprimiert. Sehr auffällig und dazu passend ist die hohe Package Power, welche alle CPUs im Test aufweisen. Das spricht für eine optimale Auslastung aller Rechenkerne und ist per se ein gutes Zeichen. Allerdings kommt die Performance nicht in Form von Bildrate an. Wenn wir bei dem Beispiel mit dem Ryzen 5950X und dem 5600 bleiben, benötigt der 16-Kerner für die gleiche Performance nahezu das Doppelte. Das passt hinten und vorn nicht, die Mehrleistung verpufft. Die dritte Auffälligkeit ist die absolut nicht vorhandene Kernskalierung. Das zeigt Zen 2 auf: Ein R5 3600XT ist schneller als ein 3900XT, was eigentlich nicht sein kann. Ein i7-10700K ist schneller als ein i9-10900K. Das liegt daran, dass die i9-CPU ins Powerlimit rennt. Doch wo geht die Leistung hin? Das ist die große Frage bei Spider-Man Remastered.
Quelle (https://www.pcgameshardware.de/Spider-Man-Remastered-Spiel-73740/Specials/Steam-PC-Systemandorderungen-Benchmark-Test-Review-1400598/4/)

MiamiNice
2022-10-25, 12:15:15
Die PCGH Quelle ist immer schwierig.
Hier was ohne aufdringliche Werbung:

https://www.techspot.com/article/2520-spiderman-cpu-benchmark/

Enabling Ray Tracing
As you would expect, enabling ray tracing even with the slightly dialed down 'high' quality preset greatly reduces frame rates, even at 1080p. But as many have noted, this does increase CPU usage further. Given that these results might surprise you.

Despite the higher CPU usage, lower core count CPUs don't suffer. The Core i3-12100, for example, was just 6% slower than the 12400F and you can attribute that to the difference in cache capacity rather than core count. It's the same deal when looking at Zen 3 processors, the 5600X is now much closer to the 5800X, 5900X and 5950X, basically matching them.

As far as we can tell, enabling ray tracing in this game significantly increases the amount of traffic crossing the PCI Express bus. It also increases the amount of RAM used and therefore the amount of data being shifted in and out of memory. So although CPU usage has increased, it appears as though memory bandwidth is the primary bottleneck for most processors.

Throwing more cores at the problem isn't the solution, which is a bit surprising given the game will spread the load quite well across even 12 cores, but like most games it does appear to be primary thread dependent.

That means individual core performance is key and it's why the 12900K is so fast relative to the 5950X, for example. It's also why the 5950X, 5900X, 5800X and 5600X are all very similar, while the difference in performance between the 12th-gen Core processors can be largely attributed to L3 Cache capacity.

Looking at CPU utilization alone, we had expected the Core i3-12100 to crumble, but that wasn't the case and in fact it comfortably beat the 10-core Core i9-10900K, suggesting that IPC is king here rather than core count, within reason of course.

More evidence of this can be seen with AMD's APUs, the 5700G has 8-cores/16-threads but half the L3 cache of the Zen 3 CPU models such as the 5600X which were almost 20% faster. The 5300G halves its cache again and this is likely why the 5700G was 15% faster.

The older Zen and Zen+ processors aren't particularly impressive when it comes to memory performance and like the APUs they also lack PCIe 4.0 support, which could be playing a role here. Despite packing 8-cores / 16-threads, the 1800X and 2700X really struggle in this title.

Das Game ist ein wunderschönes Beispiel warum ST Performance noch immer der Hit ist obwohl das Game nen Dutzend Threads spawnen kann :D
Eigentlich müsste ich es ja spielen, aber diesen inhaltlichen Müll kann ich mir nicht rein fahren.

Gast
2022-10-25, 13:39:55
Benötigt "mehr" CPU-Leistung ist für mich nicht gleichbedeutend mit 7 Generationen neuer mit doppelter Core-Anzahl und höherem Takt. Das ist ein doppelter Dimensionssprung.


https://youtu.be/xI2VUQsPqJo?t=1208

Raytracing ist in diesem Spiel CPU limitiert.

Gast
2022-10-25, 13:44:25
Spiderman ist Technikmüll was das angeht, ich zitiere mal:

Das ist nicht Technikmüll, das ist Skalierbarkeit, und auf eine sehr beeindruckende Art und Weise.

Lehdro
2022-10-25, 13:53:28
Die PCGH Quelle ist immer schwierig.
Hier was ohne aufdringliche Werbung:

https://www.techspot.com/article/2520-spiderman-cpu-benchmark/

Fehlt nur die sehr wichtige Information dass der Verbrauch mit zusätzlichen Kernen durch die Decke schiesst, obwohl dasselbe dabei rumkommt wie mit weniger Kernen. Das ist schon wichtig, weil es eben zeigt das bei dem Game etwas fundamental kaputt ist. Es wird immer sinnlos Arbeit verrichtet wenn man mehr Kerne als 4 hat - das ist der wichtige Fakt!

Das Game ist ein wunderschönes Beispiel warum ST Performance noch immer der Hit ist obwohl das Game nen Dutzend Threads spawnen kann :D
Das Game ist wohl eher ein Beispiel dafür dass nur weil viele Threads ausgelastet werden, diese nicht per se etwas bringen müssen. Ein 12100F mit den Taktraten des 12900K wäre genauso schnell (mal vom Cacheunterschied abgesehen), würde aber nur einen Bruchteil verbrauchen. Lächerliche Enginefailerei und technisch einfach disqualifiziert, ähnlich wie Cyberpunk und dessen kaputte SMT Implementierung für AMD >6 Kerne (nach Jahren immer noch nicht gefixt!).

Kleebl00d
2022-10-25, 16:26:27
Das ist nicht Technikmüll, das ist Skalierbarkeit, und auf eine sehr beeindruckende Art und Weise.
Ich bin mir unsicher, ob du das Ernst meinst, aber für den Fall des Falles:
Wenn eine nominell kleinere CPU quasi die gleiche Leistung liefert wie eine deutlich größere mit deutlich höherem Verbrauch, dann ist das keine beeindruckende Skalierung sondern Schrott aka Energieverschwendung.

Platos
2022-10-25, 18:09:24
Irgendwas macht die grössere CPU ja mehr. Würde mich interessieren, was das ist.

Möglicherweise werden ja mehr NPC Charaktere berechnet oder ähnliches und die Kernanzahl wird somit eben automatisch genutzt.

Gast
2022-10-25, 20:22:50
Wenn eine nominell kleinere CPU quasi die gleiche Leistung liefert wie eine deutlich größere mit deutlich höherem Verbrauch,

Was nur der Fall ist wenn man "Leistung" alleine mit FPS definiert.

Die FPS werden immer vom langsamsten Thread dominiert, das ganz einfach so wie es funktioniert.

Hikaru
2022-10-26, 05:44:14
Eigentlich müsste ich es ja spielen, aber diesen inhaltlichen Müll kann ich mir nicht rein fahren.

Sehe ich ähnlich, vielleicht nicht als Müll aber "juckt mich nicht." Im allgemeinen gibt es für mich nix was mich aufrüsten lassen würde (Sandy+1070 @1080p). Ausser AVX512 beim Zen4 was bestimmte (meine) Konsolen Games in neuem Glanz erstrahlen lässt:)

Virtua Racing auf Switch spielt sich auf PC auch besser als auf meiner Switch die by default input lag hat.

Oder Sachen wie Motorstorm2/3 die Referenz sind auf ihrem Gebiet gibt es auf PC leider nicht.

Edit: Meine beste Aufrüstung war die 6800Ultra kommend von einer GF4 4200. Nicht nur das diese Karte sackschnell war... Far Cry, Doom3, Half Life 2 waren mehr als Grund genug.

Kleebl00d
2022-10-26, 09:06:33
Was nur der Fall ist wenn man "Leistung" alleine mit FPS definiert.

Die FPS werden immer vom langsamsten Thread dominiert, das ganz einfach so wie es funktioniert.
Wie würdest du denn Leistung in Spielen definieren, lieber Gast?
Wenn dir FPS nicht so richtig zusagt?

Wenn die CPU nicht mehr der langsamste Part ist, sollte doch eigentlich die Prozessor-Auslastung sinken. Es fällt ja nicht mehr Arbeit an, solange die FPS in vergleichbarem Rahmen sind. Und mit mehr Kernen sollte entweder bei gleicher Auslastung auf mehr Kernen die FPS (meinetwegen noch die min-FPS) steigen oder die gleiche Arbeit wird auf mehr Kerne verteilt, ergo sinkt die Auslastung.
Ist hier nicht der Fall, hier bleibt die Auslastung bei mehr Kernen halbwegs konstant (ergo steigt die erbrachte Arbeit), die FPS steigen aber nicht nennenswert an.

Lehdro
2022-10-26, 12:01:06
Irgendwas macht die grössere CPU ja mehr. Würde mich interessieren, was das ist.

Möglicherweise werden ja mehr NPC Charaktere berechnet oder ähnliches und die Kernanzahl wird somit eben automatisch genutzt.
Einfache Antwort: Es wird sinnloserweise alles mehrfach berechnet. Optisch- und Leistungstechnisch ist alles identisch. Es würde mich nicht wundern wenn das Spiel selbst einen 64 Kern Threadripper noch "auslasten" würde - völlig ohne Not.
Was nur der Fall ist wenn man "Leistung" alleine mit FPS definiert.
Was die einzig sinnvolle Metrik ist wenn alles andere identisch ist. Denn nur das zählt.

Die FPS werden immer vom langsamsten Thread dominiert, das ganz einfach so wie es funktioniert.
Sicher, nur sollten dann die weiteren Belastungssteigerungen für die CPU ausbleiben, so wie bei den anderen 99,99999% der Games. Tun sie aber nicht: Also Schrottsoftware, oder nenn es von mir aus Powervirus, denn genau so verhält es sich. Verhält sich absolut abnormal das Game und das ohne Benefit.

Platos
2022-10-26, 12:59:59
Alles mehrfach berechnet? Warum sollte das Spiel das tun und vor allem: Gibt es zu deiner These auch Belege?

MiamiNice
2022-10-26, 13:09:33
Wie würdest du denn Leistung in Spielen definieren, lieber Gast?
Wenn dir FPS nicht so richtig zusagt?

FPS waren noch nie das Maß der Dinge, sondern min FPS ;)
Mittlerweile, dank DLSS3, sagen FPS gar nichts mehr aus.
Dank NV muss nun ein neuer Messwert her, ich würde zu „Engine Ticks“ tendieren.

Lehdro
2022-10-26, 13:33:43
Alles mehrfach berechnet? Warum sollte das Spiel das tun
Weil es schrottig programmiert ist.

und vor allem: Gibt es zu deiner These auch Belege?
Ja, Kernauslastung bleibt gleich, egal wieviele Kerne. Stromverbrauch geht dementsprechend durch die Decke aber die FPS bleiben gleich, egal ob 4 oder 16 Kerne...
1+1 = ?

Kleebl00d
2022-10-27, 13:46:26
FPS waren noch nie das Maß der Dinge, sondern min FPS ;)

Da machst du es dir aber deutlich zu einfach.
Gegenbeispiel:
System 1: 120FPS, alle 30 Sekunden ein Absacker auf 20FPS
System 2: 30FPS, alle drei Sekunden ein Absacker auf 24FPS

Mit welchem würdest du lieber spielen?
Bestimmt dem zweiten, 20% bessere minFPS, und die sind ja das Maß aller Dinge!!1! ArroganterZwinkersmiley

Gast
2022-10-30, 17:35:52
Wie würdest du denn Leistung in Spielen definieren, lieber Gast?

Leistung = Arbeit pro Zeiteinheit.
Nicht jegliche Arbeit resultiert allerdings in mehr FPS.


Ist hier nicht der Fall, hier bleibt die Auslastung bei mehr Kernen halbwegs konstant (ergo steigt die erbrachte Arbeit), die FPS steigen aber nicht nennenswert an.


Du sagst es ja selbst, nicht die FPS bestimmen die Leistung sondern die erbrachte Arbeit.

Mein Verdacht wäre ja, dass die Engine mit mehr Kernen, eine höhere Anzahl an Tiles um den Spieler herum decoded.
Damit wird natürlich mehr Leistung erbracht, auf die AVG FPS hat das aber keinen Einfluss, höchstens auf die Slowdowns, die dadurch entstehen wenn man sich in ein Tile bewegt deren Assets noch nicht geladen wurden.

MiamiNice
2022-10-30, 19:20:08
Da machst du es dir aber deutlich zu einfach.
Gegenbeispiel:
System 1: 120FPS, alle 30 Sekunden ein Absacker auf 20FPS
System 2: 30FPS, alle drei Sekunden ein Absacker auf 24FPS

Mit welchem würdest du lieber spielen?
Bestimmt dem zweiten, 20% bessere minFPS, und die sind ja das Maß aller Dinge!!1! ArroganterZwinkersmiley


Deine Optionen sind nicht klug gewählt.
Ich würde System 1 nehmen, scheint ja deutlich mehr Power zu haben.
Dann würde ich paar Dinge in den Optionen deaktivieren, je nachdem wo es hapert, und mich dran erfreuen ;)

Aber aufgrund Deiner Fragestellung gehe ich davon aus, das Du nicht wirklich verstanden hast warum "FPS" eine blöde Metrik ist.
Min. FPS waren schon immer das Maß der Dinge, aus diversen Gründen. Google doch mal ein wenig :D