Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 11. April 2022
Leonidas
2022-04-12, 10:34:54
Link zur News:
https://www.3dcenter.org/news/news-des-11-april-2022
Gast Ritis
2022-04-12, 11:14:54
Beim Xanxo Vergleich musst du Strange Brigade 720p aus dem Index raus nehmen. Wenn ein Game >400FPS generiert sind die Ergebnisse nicht mehr ernsthaft übertragbar, du misst da nur noch Taktabhängigkeit, was den Ausreisser erklärt. Das ist aber für eine generelle Einschätzung nicht relevant.
Ist da der Witcher im 720er Indexwert mit drin?
Ansonsten zeigt doch die Analyse von Igor wieder einmal wunderbar, dass uns AMD und Nvidia hilflos übertaktete GPUs für viel Geld andrehen. Vor ein paar Jahren war das Extremübertakten noch ein Hobby von Tech-Nerds. Heute gibts das ab Werk mit viel Marketing Getrommel und zweifelhaften Reviews. Wo sind eigentlich die $$/FPS Graphiken geblieben? Das würde den Irrsinn wieder deutlicher machen.
Leo finde immer wieder interessant we du immer davon ausgehst das NV (oder AMD/Intel) andauernd ihre Pläne ändern bzw umstoßen und keinen Plan habne und nicht das die alten oder auch neuen Leaks einfach Blödsinn sind.
Leonidas
2022-04-12, 11:47:24
Beim Xanxo Vergleich musst du Strange Brigade 720p aus dem Index raus nehmen.
Könnte man. Aber da das Ergebnis nicht großartig abweichend ist, spielt das keine große Rolle.
Leo finde immer wieder interessant we du immer davon ausgehst das NV (oder AMD/Intel) andauernd ihre Pläne ändern bzw umstoßen und keinen Plan habne und nicht das die alten oder auch neuen Leaks einfach Blödsinn sind.
So war das nicht gemeint. Wahrscheinlich habe ich an dieser Stelle die Erklärung zu kurz gehalten, deswegen wurde das nicht verstanden.
1. Die Pläne werden nicht umgestoßen. Chips werden design, zum Tape-Out gebracht und validiert.
2. Doch darauf aufbauende Grafikkarten sind was ganz anderes. Die plant man vor und versucht so viel wie möglich vorherzusehen. Aber am Ende entscheiden reale Tests mit dem echten Silizium, wohin die Reise geht. Erst bewaffnet mit realen Performance-Angaben plant man Grafikkarten in Form von wieviel Shader-Cluster werden freigeschaltet, wieviel Takt, wieviel TDP, was für ein Preis. Das ist keine Sache von vorheriger Detailplanung - deswegen werden da auch keine Pläne umgestoßen. Es werden Entwürfe gemacht umgestoßen (die exakt dafür da sind).
Ja klar, eine 4070 die in etwa die selbe performance wie eine 3090 hat schluckt mehr Strom als letztere, trotz wesentlich besserer Fertigung (switch von samsungs schrott 8NM zu vernünftigen TSMC 5NM), macht total Sinn ..
Legendenkiller
2022-04-12, 13:11:54
und die 4060 dann 300W
und die 4050 dann 200W
immerhin schön übersichtliche TPDs. Das ist doch sehr Kundenfreundlich. :freak:
Eigentlich mag ich Igor, aber sowohl die Hardwareluxx-Messwerte als auch seine eigenen Messwerte aus früheren Tests werfen da Fragen auf.
Zum einen verliert Hardwareluxx bei 300W in Control grob 26% Leistung, Igor nur 10%. Das ist schon ein krasser Unterschied.
Zum anderen ist die Effizienz der AMD Karten teilweise erheblich schlechter als beim Launch von Igor gemessen. Beim Launch ist die 6900XT z.B. in Borderlands bei den min FPS grob doppelt so gut als im aktuellen Test. Bei den AVG war sie auch besser, hat dabei aber gleichzeitig 46W weniger verbraucht. Die Differenz wird im Test nicht erklärt.
In Control ist es ähnlich, da haben die AMD Karten auch erheblich an Effizienz verloren. In GRB haben die AMD und die NVidia Karten außer der 3090TI teilweise massiv an Effizienz verloren (die normale 3090 ist z.B. von 2.72 auf 3.29 gefallen). Die 3080 und 3090 sind übrigens auch in Borderlands deutlich ineffizienter geworden laut Igor's Messung.
Insofern ist Igor's Test zwar interessant, aber verglichen mit seinen eigenen Daten aus früheren Tests ergeben sich sehr fragwürdige Ergebnisse und auch im Vergleich zu Skalierungs-Tests anderer Seiten sind seine Ergebnisse sehr schmeichelhaft für die gedrosselte 3090TI und nicht wirklich nachvollziehbar.
Was klar ist, ist dass die 3090TI bei 350W oder 300W effizienter als die alte 3090, aber die Messungen bei Igor erscheinen mir nicht nachvollziehbar gut.
Lehdro
2022-04-12, 14:52:59
Dies wäre sogar leicht mehr als von AMD versprochen, denn AMDs gemittelte +15% beziehen sich auf den regulären Ryzen 7 5800X, nicht auf den (im Gaming-Einsatz beachtbar schnelleren) Core i9-12900KF.
Korrektur: AMD hat mit dem 5900X verglichen (https://www.amd.com/system/files/2022-01/1131643-5800X3D_Perf_Slide-1920wide.jpg) (Quelle (https://www.amd.com/de/processors/ryzen)), nicht dem 5800X. Da können also gut noch einmal ein paar Prozente schlummern und somit die AMD Rechnung stimmiger machen.
Korrektur: AMD hat mit dem 5900X verglichen (https://www.amd.com/system/files/2022-01/1131643-5800X3D_Perf_Slide-1920wide.jpg) (Quelle (https://www.amd.com/de/processors/ryzen)), nicht dem 5800X. Da können also gut noch einmal ein paar Prozente schlummern und somit die AMD Rechnung stimmiger machen.
Ist im Gaming nicht relevant, da gibt es keinen Unterschied zwischen 5800X und 5900X
Leonidas
2022-04-12, 16:24:02
Spielt keine Rolle, Korrektheit geht vor. Wird gleich gefixt & Danke @ Lehdro.
Lehdro
2022-04-12, 16:28:54
Ist im Gaming nicht relevant, da gibt es keinen Unterschied zwischen 5800X und 5900X
Bei den low percentilen sehr wohl (https://www.computerbase.de/2022-04/intel-core-i9-12900ks-test/2/#abschnitt_gamingbenchmarks). Gerade da wird der 5800X3D sehr interessant wenn man die Benches von dem Spanier anschaut.
Sehr leistungsstark dieser 5800X; vor allem die Minimum-FPS selbst dem Intel 12900 überlegen.
Schade das dieser so spät erscheint.
Wenn die kommenden Zen 4 Desktop Prozessoren ohne solch einen Cache 35/40 % drauf legen (verglichen mit Ryzen 5000 ohne Cache), könnten die Beschäftigten bei amd Zen 4 nicht späterhin nochmal mit dem gleichen Cache auflegen?
maximus_hertus
2022-04-12, 17:25:30
Da ist der X3D gefühlt deutlich schneller als gedacht. Schaun mer mal, was die anderen Reviews messen :) Man darf vorsichtig optimistisch sein.
Die abgedruckte Tabelle muss man natürlich mit Pulle Salz nehmen. Wenig überraschend, dass die einzige nahe/im Sweet-Spot laufende Karte bei fps/Watt alle anderen schlägt. Um so mehr, als das die wohl sogar oberhalb des - branchenüblich eh schon zu hoch liegendem - Referenztakt liefen. Ganz ohne die Werte anzuzweifeln: Was will uns Igor damit sagen? Dass wir alle verzichten und undervolten/takten/bratwurst sollten? Hab' ich kein Problem mit, aber es sollte schon quasi auf Knopfdruck funktionieren. Und die Masse wird dann doch wieder alle Regler auf Max drehen.
madshi
2022-04-12, 20:55:13
**90 PG139-SKU310, AD102-300, 24G 24Gbps, 600W
**80 PG139-SKU330, AD102-200, 20G 24Gbps, 500W
**70 PG141-SKU310, AD104-400, 12G 24Gbps, 400W
Was ist mit dem AD103 Chip passiert!?!?
Das macht für mich keinen Sinn so. Der Unterschied zwischen AD102 und AD103 ist bereits riesig. Dann AD103 einfach zu streichen, bzw gar nicht zu verwenden, erscheint mir sehr unwahrscheinlich. Die 4080 verwendet dann den Chip der 144 SMs hat, und die 4070 geht gleich auf den Chip, der nur 60 SMs hat? Häh!? Da paßt dann auch der Stromverbrauch nicht wirklich, IMHO. Klar würde die 4080 nur einen Teil der 144 SMs verwenden, die der Chip hat, aber trotzdem klingt es unwahrscheinlich, daß die 4080 mit AD102 Chip mit 144 SMs 500W verbrauchen würde und die 4070 mit AD104 Chip mit 60 SMs 400W. Der Unterschied im Stromverbrauch zwischen AD102 und AD104 sollte deutlich größer sein als 500W vs 400W.
iamthebear
2022-04-12, 23:06:39
Das mit den 400W für AD104 ist offensichtlich ein Aprilscherz gewesen. Steht auch extra "April fools" im Tweet.
Nur die 600W für die 4090 Ti sind (fast) korrekt.
Ich würde einmal vermuten:
AD102:
4090 Ti (600W) als Topmodell höchstwahrscheinlich nur mit Wasserkühlung insehr geringer Stückzahl.
4090 (450W) als de facto Topmodell
4080 Ti (400W) dann als stärker beschnittener AD102 (eventuell mit 20GB)
AD103:
4080 (350W) mit 16GB
AD104:
4070 (300W) mit 12GB
madshi
2022-04-12, 23:29:19
Ja, das würde mehr Sinn machen. Wobei der AD104 nur mäßig schneller sein sollte als die 3080, oder? Da fände ich die 300W für TSMC 5nm schon extrem enttäuschend, wenn die 3080 auf Samsung 8nm 320W verbraucht.
Ich kann mich noch an die Gerüchte vor dem Release der letzten Generation erinnern. Da waren die Gerüchte bis kurz vor Release so, daß Ampere gar nicht so gehypt war, und AMD dafür mehr. Aber Ampere war dann letztendlich besser als erwartet. Z.B. war die doppelte FP32 Power so zwar mal als Gerücht am Rande erwähnt worden, hatte aber niemand wirklich ernst genommen. Ok, im Real-Life bringt die verdoppelte FP32 nicht annähernd doppelte Performance, aber trotzdem war Ampere dann doch deutlich besser (auch gegenüber AMD) als die Gerüchte es bis kurz vor Release noch gesagt hatten.
Von daher nehme ich die aktuellen Gerüchte auch etwas with a pinch of salt. Selbst wenn Lovelace/Ada einfach nur Ampere auf 5nm TSMC wäre, sollte das Ergebnis besser sein, als die Gerüchte es derzeit zu sagen scheinen. Daher habe ich meine Zweifel, ob die aktuellen Gerüchte über Lovelace/Ada nicht ein bißchen zu pessimistisch sind.
Meine persönliche Erwartung ist, daß vielleicht das Lovelace/Ada Topmodell auf Teufel komm raus auf höchste Speed getrimmt wird, ähnlich wie die 3090 Ti, und dabei kommen dann halt extreme Watt-Zahlen bei raus. Aber ich habe meine Zweifel, daß das bei 4080 und darunter genauso sein wird. Irgendwo muß sich 5nm TSMC auch auszahlen, sonst stimmt mit den Gesetzen der Physik etwas nicht.
Oder vielleicht sind alle Lovelace/Ada Modelle einfach gnadenlos übertaktet. Aber dann sollten wir einfach die Power auf 50% drosseln können, mit nur 10% Speed-Verlust, oder etwas in der Art. Damit könnte ich dann auch ganz gut leben...
Leonidas
2022-04-13, 04:34:12
Das mit den 400W für AD104 ist offensichtlich ein Aprilscherz gewesen. Steht auch extra "April fools" im Tweet.
Nein, wie der Twitterer am 1. April genauso schon geschrieben hatte, siehe hier:
https://www.3dcenter.org/news/news-des-1-april-2022
Wobei ich dennoch die Watt-Zahlen der kleineren Gfx bezweifele. Nur ein April-Scherz war die Meldung nicht.
hlynska
2022-04-14, 07:09:29
Ich habe mir die Artikel zur gedrosselten RTX 3090 Ti noch mal angeschaut. Ist euch aufgefallen, dass beim Luxx lediglich das PL runtergesetzt wurde (was per se ja wirklich sinnlos ist), bei Igor jedoch die V/F Curve aufwändig angepasst wurde? Da sehe ich keinen Widerspruch, sondern eigentlich eine Bestätigung, wenn man sich ältere UV-Artikel zur 3080 und 3090 anschaut. Man kann nicht das PL einfach nur drosseln, dann verschiebt man das Problem nur nach unten. Das ist wie beim OC, wo die Karte allein durch ein höheres PL kaum noch Performance gewinnt. :D
BTW: In der Firma haben wir eine A6000, selbst die klebt einer 3080 Ti arg am Allerwertesten. Mit 300 Watt am Start.
notebookcheck schreibt ernsthaft "überraschend" in die Überschrift. Ein Beispiel dafür, dass man die leider nicht ernst nehmen kann.
AD102:4090 Ti (600W) als Topmodell höchstwahrscheinlich nur mit Wasserkühlung
Die 600w stehen für die 4090 nicht die ti, und mit dem Aprilschwerz waren die Verbräuche der Karten, nicht der generelle Inhalt des Posts gemeint. So wie, es kann nur ein Aprilscherz sein, weil es sich bestätigt. Zumal AMD deutlich darunter liegen soll und nicht viel langsamer herauskommt. Eine ti schluckt deutlich mehr, wird aber nicht kommen.
Nvidia hat kein Referenzmodell mit Wasserkühler im Programm. Wenn eine ti kommt dann deutlich später. Es ist nicht bekannt ob diese dann eine AIO als Kühlung mitbringt. Würde man sicher den Partnern überlassen.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.