Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 1./2. Oktober 2022


Leonidas
2022-10-03, 09:58:38
Link zur News:
https://www.3dcenter.org/news/news-des-12-oktober-2022

Platos
2022-10-03, 10:34:15
Die ~ +60% der 4090 auf die 3090Ti sind leider schon etwas niedrig. Ich persönlich dachte (damals zur Gerüchtelage) wirklich, dass man mit 75-85% rechnen kann.

Eigentlich finde ich, dass es erstaunlich wenig ist, wenn man die Hardwaredaten anschaut vom 102-er Chip.

Naja, anyway: Die Preise sind scheisse und traurigerweise bietet die 4090 vermutlich das beste P/L.

madshi
2022-10-03, 10:35:29
Zur Info, das Ada Whitepaper scheint nun zur Verfügung zu stehen:

https://images.nvidia.com/aem-dam/Solutions/geforce/ada/nvidia-ada-gpu-architecture.pdf

Gast
2022-10-03, 10:39:37
Die ~ +60% der 4090 auf die 3090Ti sind leider schon etwas niedrig. Ich persönlich dachte (damals zur Gerüchtelage) wirklich, dass man mit 75-85% rechnen kann.

Die wirst du auch bekommen, mit entsprechend hohen Einstellungen, bzw. Zeit in der Spiele einfach anspruchsvoller werden.

Mit heutigen Spielen dürfte aber selbst 4k kaum ausreichen um komplett dem CPU-Limit zu entfliehen und die maximale Skalierung zu zeigen.

Leonidas
2022-10-03, 11:32:19
Zur Info, das Ada Whitepaper scheint nun zur Verfügung zu stehen:
https://images.nvidia.com/aem-dam/Solutions/geforce/ada/nvidia-ada-gpu-architecture.pdf

Wurde mit dieser News in der Files-Sektion verlinkt. ;)

Gast Ritis
2022-10-03, 11:57:56
ADA braucht den grossen L2 für die MicroMaps und MicroMeshes, die in Tesselationmanier das Raytracing beschleunigen sollen. Ohne Anpassung der Engines auf Nvidias Sonderweg durch die Entwickler passiert da garnichts und es bleiben die 60% übrig.

iamthebear
2022-10-03, 12:48:46
Ich glaube da ist etwas durcheinander gekommen. Im Artikel ist von 2080 Ti vs. 3090 die Rede. Die Werte stammen aber anscheinend von der 3080.
3090 vs. 2080 Ti sollten um die 50-60% in 4K sein.

Torg
2022-10-03, 14:04:55
Die X3D Versionen vom 7900er und 7950er Modell macht mMn. keinen Sinn.
Im Endeffekt wären diese in Spielen nur wieder annähernd gleich schnell. Wenn man Intel bereits mit dem 7800X3D schlägt in der Performance und Preis ist alles weitere unsinnig.

Beim Preisaufschlag mit 100$ beim 7800X3D sollte es wohl bleiben.
Für die 2 chiplet CPU kommen wohl eher 150$ Aufschlag raus und damit zu teuer.

Auch beim Powerbudget sieht es beim 7800 besser aus. Rechnet man 20-30W für den IO Chip bleiben 110-120W für cpu die. Das schafft man nicht für das 2 chiplet design.

Gruß
Torg

Gast
2022-10-03, 15:05:32
Wie alles aussieht wird die 4090 schon um einiges schneller als die 3090/ti sein, die 4080 12gb wird aber mit ziemlicher Sicherheit nicht schneller als die 3090/ti sein, vor allem auch die 12 vs 24gb Speicher sprechen von daher für die 3090 Ti, die aktuell im besten Fall für 1100e verkauft wird (die 4080 12gb, oder besser gesagt 4070 (ti) 12gb wird aber vermutlich nicht für =<1100e zu kaufen sein), von daher scheinen die Ampere Karten aktuell das bessere p/l zu besitzen. Für die 4090 wird man vermutlich bestenfalls 1950e zahlen müssen, wobei die meisten Karten eher bei 2000 anfangen werden, sprich 81% höherer Preis für 61% mehr Leistung. Durch den weiter schwächelnden Euro werden die Preise vermutlich noch weiter steigen, als fallen...
Zudem stellt sich auch die Frage wie viel schneller die 4080 16gb als die 3090ti sein wird. Ich tippe 20-30% auf Grund der höheren Taktraten, bei jedoch weniger SM.
Bis dann die rt Verbesserungen von ada breitflächig genutzt werden, wird zumindest der Ada/rdna3 refresh, wenn nicht schon die nächste Generation vorgestellt werden.
Irgendwie macht sich nvidia Ada selber kaputt.
Das beste, was auch nvidia passieren kann, ist eine gute rdna3 Performance, zu niedrigerem Preis als Ada. Dann werden die Preise fallen müssen und die Menschen werden mehr davon kaufen ^ ^
Ich warte mal auf 4090ti im hoffentlich nahezu vollausbau 140-142SM, oder Navi 31 bzw. Navi 3x mit 2x navi32 chiplets.

KodeX
2022-10-03, 15:51:58
Die X3D Versionen vom 7900er und 7950er Modell macht mMn. keinen Sinn.
Im Endeffekt wären diese in Spielen nur wieder annähernd gleich schnell. Wenn man Intel bereits mit dem 7800X3D schlägt in der Performance und Preis ist alles weitere unsinnig.

Das sehe ich nicht so. Wenn AMD nur einen 7800X3D bringt - aber keinen 7950X3D - hat man nicht den im Gesamtpaket (Anwendungen und Spiele) besten Prozessor im Portfolio. Hier geht es schleißlich auch um Prestige.

Es ist davon auszugehen, dass der 13900K in Anwendungen ähnlich schnell und in Spielen etwas schneller als der 7950X wird. Damit hätte Intel das Duell am oberen Ende gewonnen. Kommt ein 7950X3D, so wird es beim Gleichstand in Anwendungen bleiben, aber bei Spielen wird AMD den Sieg davontragen. Am Ende hätte man dann den Ruhm des besten Prozessors eingefahren.

Wer seinen Fokus primär auf Spiele legt, kann sich ja trotzdem (nur) den 7800X3D kaufen, den es ja ebenfalls geben wird. Das Vorhandensein zweier größerer X3D-Prozessoren sollte dann doch niemanden stören.

Gast Ritis
2022-10-03, 16:36:49
Ein 7800X3D wird vorallem grosse Ernüchterung hervorrufen.

Mit dem doppelten L2 hat man beim grossen 7650X schon "80MB Gaming-Cache".
Die kommen aber nicht so extrem zum Zug wie schon bei Zen3 nicht, weil auf zwei Chiplets verteilt. Der IF taktet höher, ein bischen mehr hilft der also diesmal schon.

Mit einem 7650X3D würde sich am Ende auch wieder die Frage nach dem Thread-Alignment stellen, damit man mit dem bei Wechsel zwischen den Chiplets nicht wieder niedrige Min-FPS einfängt, wo der ohne 3D Cache auch in der Hälfte der Fälle von einem 7600X heute überholt wird.

Die geringen Zen4 Verkäufe momentan zeigen vorallem eines, die Mainboards machen das Gesamtpaket jetzt schon zu teuer. Entweder man bleibt beim AM4 oder wartet mindestens auf den neuen X3D.
Ansonsten interessiert doch Zen4 mit 32 Threads nur im (semi)professionellen Bereich. Und dort ist man in der Regel auch kompetent genug nur auf die 4k Gaming-Bench-Balken zu schauen, wo sich innerhalb weniger % gar nichts tut.

Am Ende braucht AMD eigentlich nur für den 8-Kerner eine V-Cache Variante für Spezialfälle und natürlich die 720p Bench-Balken um dort Intel zu schlagen.
Aber die werden nicht mehr ganz so spektakulär ausfallen als das noch bei Zen3 der Fall war. Einfach weil der 7700X beim L2 auch dort schon 8MB zusätzlich oben drauf gepackt hat. Hier muss AMD den Takt hochhalten, damit da nichts verloren geht wie beim Zen3-X3D.

Klar kann AMD auch ein 7950X3D bringen, aber zu dem erwarteten Preis ist der am Ende nur gekauft von Leuten mit zu viel Geld und zu wenig Ahnung, und die Hälfte von denen kauft sowieso Intel weil die sogar 6GHz auf die Packung schreiben können ;D

GerryB
2022-10-03, 17:31:43
Wie alles aussieht wird die 4090 schon um einiges schneller als die 3090/ti sein, die 4080 12gb wird aber mit ziemlicher Sicherheit nicht schneller als die 3090/ti sein, vor allem auch die 12 vs 24gb Speicher sprechen von daher für die 3090 Ti, die aktuell im besten Fall für 1100e verkauft wird ...
oder man nimmt ne 6900XTXH/6950, die zwar 335W+ ggü. den 285W der 4080-12 braucht, aber deutlich preiswerter ist, ... und evtl. mit 16GB
in manchen Games noch Reserven hat

Das evtl. ne 4080-12 nur ca. 14...15% an Effizienz ggü. der XTXH/6950ref zulegt, ist net so prall.

Gast
2022-10-03, 19:30:31
Das evtl. ne 4080-12 nur ca. 14...15% an Effizienz ggü. der XTXH/6950ref zulegt, ist net so prall.

Die 4080-12 ist miserabel.
Wenn die 4090 +65%, vielleicht +70% gegenüber der 3090 bringt, dann hat die 4080 12GB gegenüber der 3070 vielleicht +50%.
Bei +20% mehr Verbrauch.
Und +100% Preis.

Schon eine 4080-12GB mit +55-60% vs 3080, bei gleichem Verbrauch und +100% Preis ist Dreck - aber die 4080-12GB unterbietet das noch mal locker.

4090 passt, aber je tiefer man kommt desto beschissener wird es.

Gast
2022-10-03, 19:54:26
oder man nimmt ne 6900XTXH/6950, die zwar 335W+ ggü. den 285W der 4080-12 braucht, aber deutlich preiswerter ist, ... und evtl. mit 16GB
in manchen Games noch Reserven hat

Das evtl. ne 4080-12 nur ca. 14...15% an Effizienz ggü. der XTXH/6950ref zulegt, ist net so prall.

hast recht. wobie dann vielleicht gleich die normale 6900xt bei 760e
kurz war die 6900xtxh von xfx mit wasserkuehler fur 850 erhaeltlich.
oder rdna3 ^ ^

Convertible
2022-10-03, 21:12:20
Bei 7950X3D und bei 7800X3D gleicher Preisaufschlag von 100 Dollar für 3D-Cache? Das passt doch nicht. Bei einem braucht man zwei bei dem anderen nur ein 3D-Cache-Die.

Gleicher Preisaufschlag macht nur dann Sinn, wenn bei 7950X3D nur ein Chiplet den 3D-Cache bekommt, das andere aber nicht. Dann muss man dem Windows aber irgendwie klar machen, dass der Spielethread doch bitte auf dem Chiplet laufen soll, wo der 3D-Cache drauf gepackt ist. Bei Intel übernimmt solche eine Regelung zwischen "Big" und "Effizenz"-Kernen der in den Prozessor integrierte Hardware-Scheduler. Hat das IO-die von Zen 4 auch einen Hardware-Shedular?

Leonidas
2022-10-04, 04:52:03
Ich glaube da ist etwas durcheinander gekommen. Im Artikel ist von 2080 Ti vs. 3090 die Rede. Die Werte stammen aber anscheinend von der 3080.

Korrekt. Gefixt.



Thema 7000 X3D:
Man muß klar sagen, dass von vielen ein 5900X3D und 5950X3D gefordert wurde. Da scheint ergo Interesse zu existieren.

GerryB
2022-10-04, 06:36:19
hast recht. ...
kurz war die 6900xtxh von xfx mit wasserkuehler fur 850 erhaeltlich.

this !!!

der Waterblock finanziert sich quasi von Alleine
und man hat echtes OCing-Potential>2900MHz, und kann bei Bedarf aufs LC-Bios flashen(Vram@FT2)

Gast
2022-10-04, 07:33:32
Auch beim Powerbudget sieht es beim 7800 besser aus. Rechnet man 20-30W für den IO Chip bleiben 110-120W für cpu die. Das schafft man nicht für das 2 chiplet design.



Beim Powerbudget sieht es für den Single-CCD 8-Kerner am schlechtesten aus.
Nicht die Gesamtleistungsaufnahme ist entscheidend sondern die Leistungsdichte, und die ist beim 7700X am höchsten.

Am "leichtesten" würde sich noch ein 7900X mit dem 3D-Cache tun, mit 2CCDs und nur jeweils 6 aktiven Kernen.

Für den 16Kerner sieht es ähnlich aus, wie beim 8Kerner. Hier müsste man mit 3D-Cache wohl einiges an Takt aufgeben.

Gast
2022-10-04, 07:46:22
Mit dem doppelten L2 hat man beim grossen 7650X schon "80MB Gaming-Cache".



Man hat keine "80MB Gaming Cache".

L2 ist Kern und L3 ist CCD exklusiv, der maximale Cache für 1 Thread (L2 + L3) ist damit 33MB).

Mehr L2 sollte zwar den Effekt vom zusätzlichen Cache etwas dämpfen, aber höchstens geringfügig.

Der L3 enthält die Victims aus dem L2, im Endeffekt braucht Zen4 also für den selben Effekt wie beim Zen3 um 0,5MB weniger L3, bzw. bis zu 4MB weniger L3 wenn alle Kerne an unabhängigen Aufgaben arbeiten.

Angesichts der +64MB des Stacked Cache also ein sehr geringer Unterschied. Dort wo 3D Cache bei Zen3 viel gebracht hat wird es auch bei Zen4 der Fall sein.

Die Schwelle von 3D-Cache bringt nichts zu 3D-Cache bringt ein wenig wird sich etwas verschieben, aber nicht im großartigen Ausmaß

Gast
2022-10-04, 08:30:33
Die ~ +60% der 4090 auf die 3090Ti sind leider schon etwas niedrig. Ich persönlich dachte (damals zur Gerüchtelage) wirklich, dass man mit 75-85% rechnen kann.

Eigentlich finde ich, dass es erstaunlich wenig ist, wenn man die Hardwaredaten anschaut vom 102-er Chip.
Naja, wenn man bedenkt, dass die Gerüchte früher mal von mehr als doppelter Leistung sprachen, sind die +60% natürlich wenig.
Aber das ist bei den Gerüchten leider immer so: Die drehen sich rein um die FLOPs, die aber nun mal nicht 1:1 in FPS umgesetzt werden können. Das gilt für alle GPU Hersteller. Daher gebe ich inzwischen gar nichts mehr auf die frühen Gerüchte. Auch das hier ist ja nur eine Interpolation. Solange es keinen Benchmark Parcours gibt, den die GPU durchlaufen hat, ist noch alles möglich.

Die Gerüchte nutze ich maximal, um mich über die Kommentare der Hater und Jünger zu amüsieren, mehr kann man da meist nicht heraus holen.

Torg
2022-10-04, 10:41:14
...

Thema 7000 X3D:
Man muß klar sagen, dass von vielen ein 5900X3D und 5950X3D gefordert wurde. Da scheint ergo Interesse zu existieren.

Die Ernüchterung wird beim Preis kommen und dass im Ergebnis ein 7800X3D in Spielen gleich schnell sein wird. Da greift man dann lieber zum geschätzt 200 € güstigeren 13900K
oder nochmals günstigeren 13700K, die dann auch bei Multicore Anwendungen nicht schlecht aussehen werden.

Abgesehen davon, dass man auch entsprechend Geld in die Grafikkarte investieren muss um überhaupt ein Unterschied in Auflösung ab FHD zu erkennen.

AMD sollte ganz klar rausstellen.
- wir haben die Beste Spieler CPU zum güntsigeren Preis
- wir haben die schnellsten CPU in Anwendungen beim gleichen Preis

was anders ist dann nur meeh

Gruß
Torg

Torg
2022-10-04, 11:23:06
Beim Powerbudget sieht es für den Single-CCD 8-Kerner am schlechtesten aus.
Nicht die Gesamtleistungsaufnahme ist entscheidend sondern die Leistungsdichte, und die ist beim 7700X am höchsten.

Am "leichtesten" würde sich noch ein 7900X mit dem 3D-Cache tun, mit 2CCDs und nur jeweils 6 aktiven Kernen.

Für den 16Kerner sieht es ähnlich aus, wie beim 8Kerner. Hier müsste man mit 3D-Cache wohl einiges an Takt aufgeben.

Also, man läßt mehr Leistung "pro" Chiplet zu. Damit steigt die Leistungsdichte beim 7700x ! Somit braucht man für 2 Chip Design eigentlich > 250W PPT bei gleicher Leistungsdichte. Hat man aber nicht definiert! Damit sind die "Reserven" beim PPT beim 1Chiplet höher. Immer vorausgesetzt man betreibt hier kein extra binning beim 7950x.. Beim 7900x hast du also auch mehr Reserven. Sieht man auch daran, dass der Basetakt bei den 6/12Kerner jeweils 200MHz höher liegt (offiziell garaniert) und in Spielen der 7600x seinen Takt voll ausfahren kann.

Gruß
Torg

GerryB
2022-10-04, 13:32:46
Die Ernüchterung wird beim Preis kommen ...

AMD sollte ganz klar rausstellen.
- wir haben die Beste Spieler CPU zum güntsigeren Preis
- wir haben die schnellsten CPU in Anwendungen beim gleichen Preis


... und in Zukunft sauteure Boards

Da könnte in dieser Generation ein Intel-Aufrüster besser dran sein.
(und den DDR4 gleich weiter nutzen)

bad_sign
2022-10-04, 17:17:43
Die Ernüchterung wird beim Preis kommen und dass im Ergebnis ein 7800X3D in Spielen gleich schnell sein wird. Da greift man dann lieber zum geschätzt 200 € güstigeren 13900K
Ist wohl unvorstellbar, das man tatsächlich beides am PC machen kann.
Multicore, wo der Cache egal wäre UND Gaming, wo die 13er Serie wohl kein deut ranreichen wird an ein Zen 4 mit 3D Cache.

Nachdem ein halbes Jahr zwischen Normal und 3D liegen wird, kommen die CPUs mit fast dem selben Preis, wie Zen 4 released (einfach weil dank Konkurrenz und generell geringerem Absatz dank Wirtschaft, sowohl Intel, als auch AMD im Preis fallen werden -> neue Modelle werden die alten Preisslots ersetzen, wie auch ein 5800X3D getan hat)

Torg
2022-10-04, 23:07:29
Ist wohl unvorstellbar, das man tatsächlich beides am PC machen kann.
Multicore, wo der Cache egal wäre UND Gaming, wo die 13er Serie wohl kein deut ranreichen wird an ein Zen 4 mit 3D Cache.

Der zusätzliche Cache beim 7950x3d wird Gesamtperformance bei Anwendungen drücken weil jetzt schon das PPT voll ausgenützt wird. Rechne mal damit dass der Cache 30 Watt mehr benötigt, dann kannst du vielleicht schon 10% von der Max. Leistung abziehen, die jetzt erreicht wird in Multicore Anwendungen, wo der Cache nichts nützt.
Ich glaube auch nicht, dass in dieser Genration der Vorsprung mit zusätzlichen Cache so hoch ausfallen wird.
Dazu wie gesagt der Preisaufschlag von geschätzt 150€.
Dass im halben Jahr die Preise derart sinken sehe ich nicht. Der Euro verliert nochmals gegüber dem Dollar. Aber vielleicht haben die Hersteller ein Einsehen mit Schwellenland Deutschland und verkaufen ihre Produkte bei uns um 20% günstiger, so wie deutsche Autobauer dass auch tun in manchen Ländern; (mit gleicher Ausstattung unter anderem Namen.)

Zur Klarstellung; bin eigentlich AMD affin und habe mir gleich im April 2017 meinen ersten Zen gekauft. Meine CPUs seit 1990: 1x Intel(Pentium III im Slot), 1x IBM und 7x AMD
Die Zeiten einer eierlegende Wollmilchsau sind meiner Meinung nach vorbei. Sowohl bei CPU als auch GPU. AMD ist schon auf dem richtigen Weg mit der Trennung von IO und Exec.. Für die Zukunft wird aber auch mehr in Software (wie FSR) und separate Hardware (Asics, Coprocessor, wie auch immer) investiert werden müssen. 2nm Hardware wirst du nicht mehr kühlen können, wenn man 230 Watt Verlustleistung hat.


Gruß
Torg

Gast
2022-10-05, 13:02:25
Rechne mal damit dass der Cache 30 Watt mehr benötigt, dann kannst du vielleicht schon 10% von der Max. Leistung abziehen, die jetzt erreicht wird in Multicore Anwendungen, wo der Cache nichts nützt.

Der Cache braucht keine 10W.
Was aber Wahrscheinlich die Leistung drosseln wird, ist die Temperatur, schon jetzt ist der 7950X ungeköpft eigentlich nur mit Sub-Ambient wirklich kühlbar, und ein weiterer DIE dazwischen wird das zwangsweise noch verschlimmern.

Lehdro
2022-10-05, 14:30:31
Der zusätzliche Cache beim 7950x3d wird Gesamtperformance bei Anwendungen drücken weil jetzt schon das PPT voll ausgenützt wird. Rechne mal damit dass der Cache 30 Watt mehr benötigt, dann kannst du vielleicht schon 10% von der Max. Leistung abziehen, die jetzt erreicht wird in Multicore Anwendungen, wo der Cache nichts nützt.
Ich glaube auch nicht, dass in dieser Genration der Vorsprung mit zusätzlichen Cache so hoch ausfallen wird.
Was für ein Quatsch. Ein 7950X verliert mit einem PPT von 142W ausgehend von 230W PPT gerade einmal 5 % Leistung im Multicore Parcours. (https://www.computerbase.de/2022-09/amd-ryzen-7950x-7900x-7700x-7600x-test/4/#abschnitt_leistung_in_multicorelasten_klassisch)
Meistens braucht der 7950X nicht einmal sein volles PPT, von daher wird das Problem nicht Power, sondern eher Temperatur sein, falls es da keine Fortschritte geben wird.

Gast
2022-10-07, 20:06:34
Was für ein Quatsch. Ein 7950X verliert mit einem PPT von 142W ausgehend von 230W PPT gerade einmal 5 % Leistung im Multicore Parcours. (https://www.computerbase.de/2022-09/amd-ryzen-7950x-7900x-7700x-7600x-test/4/#abschnitt_leistung_in_multicorelasten_klassisch)
Meistens braucht der 7950X nicht einmal sein volles PPT, von daher wird das Problem nicht Power, sondern eher Temperatur sein, falls es da keine Fortschritte geben wird.

Schau mal bei PCGH https://www.pcgameshardware.de/Ryzen-9-7950X-CPU-279068/Tests/AMD-Ryzen-7000-Zen-4-Review-Launch-1403987/4/
Da sind es, je nach Anwendung, ECO vs. normal 7-30%
Leistungsaufnahme (Durchschnitt Anwendungen) 214W https://www.pcgameshardware.de/Ryzen-9-7950X-CPU-279068/Tests/AMD-Ryzen-7000-Zen-4-Review-Launch-1403987/5/

Der Ryzen 7 5700X und der 5800X3D haben annähernd die gleichen Taktraten.
Alle Werte von PCGH
Der 5700x hat eine TDP von 65W (Durschnitt Anwendungen 72W)
Der 5800x3D hat eine TDP von 105 (Durschnitt Anwendungen 109W)

MiamiNice
2022-10-07, 22:41:23
Ist wohl unvorstellbar, das man tatsächlich beides am PC machen kann.
Multicore, wo der Cache egal wäre UND Gaming, wo die 13er Serie wohl kein deut ranreichen wird an ein Zen 4 mit 3D.

Auf welcher Basis basiert diese Annahme? Ein 12900k und 5800x 3d schenken sich in Sachen Gaming Leistung nichts. Wahrscheinlich ist, dass der 7800x 3d mit dem 13900k gleich zieht. Von „kein deut“ kann hier gar keine Rede sein.

Lehdro
2022-10-08, 12:06:08
Schau mal bei PCGH https://www.pcgameshardware.de/Ryzen-9-7950X-CPU-279068/Tests/AMD-Ryzen-7000-Zen-4-Review-Launch-1403987/4/
Da sind es, je nach Anwendung, ECO vs. normal 7-30%
Leistungsaufnahme (Durchschnitt Anwendungen) 214W https://www.pcgameshardware.de/Ryzen-9-7950X-CPU-279068/Tests/AMD-Ryzen-7000-Zen-4-Review-Launch-1403987/5/

Lesen hilft:
Noch einfacher als übertakten ist abermals das klassische Undervolting - AMD ermöglicht erneut, den Eco Mode zu aktivieren. Das haben wir auch getan und aus Ryzen 9 7950X und Ryzen 7 7700X Effizienz-Monster bei einer maximalen TDP von 65 Watt gemacht. Obacht: Ein Ryzen 9 7950X würde sich beim "normalen" Aktivieren des Eco-Mode "nur" auf die TDP-Klasse mit 105 Watt einstellen, wir hingegen haben die 65-Watt-Klasse aktiviert.
Die haben das PPT mehr als halbiert, um genau zu sein von 230W auf 88W - das sind 38%(!) vom Ausgangswert.

Leonidas
2022-10-08, 12:26:56
Wobei ich 105W Eco bei einem 7950X für sinnvoller halte als 65W. Effizienz in allen Ehren, aber es muß angepasst an die Performance-Klasse sein. Man limitiert auch keinen Ferrari auf 30 km/h.

Lehdro
2022-10-08, 14:33:42
Wobei ich 105W Eco bei einem 7950X für sinnvoller halte als 65W. Effizienz in allen Ehren, aber es muß angepasst an die Performance-Klasse sein. Man limitiert auch keinen Ferrari auf 30 km/h.
Das stellt niemand in Frage - aber Eco 65 zeigt was eigentlich möglich ist an Effizienz, dass das aber nirgendwo in den Graphen drinsteht ist das wirkliche Problem. Wie man hier schön sieht, wird der Text manchmal nur als Füllmaterial zwischen den Balkendiagrammen angesehen.

Gast
2022-10-10, 13:03:57
Das stellt niemand in Frage - aber Eco 65 zeigt was eigentlich möglich ist an Effizienz, dass das aber nirgendwo in den Graphen drinsteht ist das wirkliche Problem. Wie man hier schön sieht, wird der Text manchmal nur als Füllmaterial zwischen den Balkendiagrammen angesehen.

Haha, was wurde Nvidia damals bei Ampere kritisiert, weil sie ihre 350W GPU auf 150W betrieben haben nur um auf ihre tolle ~2x Effizienz zu kommen.

Aber wenn AMD das selbe macht ist es natürlich überaus "sinnvoll".

Lehdro
2022-10-10, 16:28:59
Haha, was wurde Nvidia damals bei Ampere kritisiert, weil sie ihre 350W GPU auf 150W betrieben haben nur um auf ihre tolle ~2x Effizienz zu kommen.

Aber wenn AMD das selbe macht ist es natürlich überaus "sinnvoll".
Äpfel = Birnen.

Vergleiche mal bitte die Performancedifferenz bei den jeweiligen Settings und die Möglichkeiten das selber einzustellen. AMD bietet das mit eigener Software per simplen Knopfdruck an - NV bis heute gar nicht.

Das AMD auf Ryzen 7000 PPT-technisch komplett sinnfrei eingeprügelt hat, steht wohl außer Frage.

Gast
2022-10-11, 09:18:40
AMD bietet das mit eigener Software per simplen Knopfdruck an - NV bis heute gar nicht.


Nvidia bietet genauso eigene Software an um das Powertarget nach Wünschen anzupassen.


Das AMD auf Ryzen 7000 PPT-technisch komplett sinnfrei eingeprügelt hat, steht wohl außer Frage.

Das kann man wohl auch über viele Ampere-Karten sagen.