PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 19. März 2024


Leonidas
2024-03-20, 06:36:18
Link zur News:
https://www.3dcenter.org/news/news-des-19-maerz-2024

Gast
2024-03-20, 07:28:35
Und schon schlägt sich nieder das AMD ab Highend Nextgen nichts bringen will. Dann bringt Nv auch kaum was. 7-30%. Lol, das ist kein wirkliches Upgrade. Vor Tagen tönte die Lederjacke noch umher, das Nv unschlagbar sei. Mal wieder viel Gelaber um nix, um den Aktienkurs zu pushen.

Hoffentlich wird es maximal effizient, was man bei der Packdichte auch nicht glauben kann.

AMD experimentiert lieber mit open source und Softwarestacks umher. Langfristige Investitionen in die Hardware, eher nicht, nadda. Billig produzieren, überteuert verkaufen ist das Motto. Mit Buzzwörtern übersät.

GerryB
2024-03-20, 08:43:46
Problematisch ist an der 4nm-Fertigung vor allem, dass hiermit kaum eine Fantasie bezüglich großer Taktraten-Steigerungen sowie großer Architektur-Zuwächse gegeben ist.

Die Konkurrenz von Blue+Red will dieses Jahr mit dem Process >3GHz schaffen.

Eher wirds interessant mit den 4nm-TSMC-Kapazitäten.
Konsolen+Intel+NV+AMD

Was Samsung können wird und ab wann mit ausreichendem Yield ist dadurch sehr interessant.
So ein Comeback bei GPU´s könnte den Preisen net schaden.
Kann NV mal von der Norm abweichen und kleine Chips zuerst oder zumindestens zeitnah zu GB202 bringen?
(dennn sonst räumen Intel+AMD erstmal bis zur 4070S alles weg mit besserem Preis)

btw.
Wer nimmt dann überhaupt 3nm, wenn Apple weiterzieht?
AMD für CPU´s und RDNA5?
PS6 wird ja noch länger warten müssen, weil sonst die PS5pro schlecht getimed wäre.

Gast
2024-03-20, 08:53:53
"Denkbar letztlich, dass nVidia gezwungen ist, für Gaming-Blackwell eine unliebsame Reserve zu aktivieren – die des (höheren) Stromverbrauchs. Wenn sich eine neue Chip-Generation auf gleicher Fertigung von der vorherigen Chip-Generation absetzen soll, geht dies fast nur über den Weg eines Mehrverbrauchs – die große Ausnahme in Form der Maxwell-Architektur dürfte eine (einmalige) Ausnahme bleiben."
Soll der Satz nur auf NVidia bezogen sein? Dann müsste das aber aufgeführt werden. Denn sonst trifft das natürlich auch auf RDNA2 zu. Die Fertigung ist im Vergleich zum Vorgänger RDNA1 und sogar dessen Vorgänger Vega2/RVII eigentlich unverändert (7nm). Aber eine 6900XT ist bei nicht einmal 15% Mehrverbrauch fast doppelt so schnell als eine RadeonVII. Eine 6700XT ist 30% schneller als eine 5700XT bei etwa gleichem Verbrauch.

Leonidas
2024-03-20, 09:38:15
Kann NV mal von der Norm abweichen und kleine Chips zuerst oder zumindestens zeitnah zu GB202 bringen?

Unwahrscheinlich. Man hat die kleinen Chips aber vermutlich früher zur Verfügung, setzt jene aber zuerst für Mobile ein. Wichtigerer Markt als Desktop-Einsteigerware.



Aber eine 6900XT ist bei nicht einmal 15% Mehrverbrauch fast doppelt so schnell als eine RadeonVII. Eine 6700XT ist 30% schneller als eine 5700XT bei etwa gleichem Verbrauch.

Guter Einwand. Aber: Vega war alte Architektur, nicht designt für 7nm.

Eher kann man 5700XT vs 6700XT betrachten - da sind es +30%. Aber werden NV +30% Mehrperformance reichen? Unwahrscheinlich, ergo muß man für Mehrperformance größer als +30% dann doch wieder mehr TDP ansetzen. Eigentlich ist dies sogar ein Beweis dafür, das es kaum anders geht. Natürlich ist nichts unmöglich, Überraschungen sind nicht ausgeschlossen.

MiamiNice
2024-03-20, 12:01:24
Damit scheint dann Blackwell das zu werden, was ich von Ada erwartet hätte :freak:
600 Watt Boliden und 30% mehr als die 4090 leistet. Absolut genau das was ich hätte bei Ada sehen wollen.
Oder anders: Es gibt dann endlich einen validen Nachfolger zu Ampere. Ada war nur ein Zwischending, wegen null Konkurrenz. Einzig für den Umsatz geschaffen.

Gast
2024-03-20, 12:12:20
Guter Einwand. Aber: Vega war alte Architektur, nicht designt für 7nm.

Eher kann man 5700XT vs 6700XT betrachten - da sind es +30%. Aber werden NV +30% Mehrperformance reichen? Unwahrscheinlich, ergo muß man für Mehrperformance größer als +30% dann doch wieder mehr TDP ansetzen. Eigentlich ist dies sogar ein Beweis dafür, das es kaum anders geht. Natürlich ist nichts unmöglich, Überraschungen sind nicht ausgeschlossen.

VegaII war 7nm. Ganz egal ob dafür designed oder nicht (und wieso sollte die nicht dafür designed gewesen sein? VegaII ist ja kein 1:1 shrink einer Vega64). Dann müsstest du deinen Satz umformulieren, und begründen, warum du den Fall ausschließen willst.
Und um bei Maxwell zu bleiben: Die GTX 980 hatte einen ähnlichen Vorsprung vor der GTX 780 bei ähnlicher Verbrauchs-Reduktion als eine RX6800 im Vergleich zur 5700XT.
Maxwell war durchaus herausragend, aber RDNA2 war bei AMD ein ähnlich großer Schritt. Der wird halt nur nicht so gewürdigt, weil NVidia die Leistungs-Krone trotzdem inne hatte (weil sie die Generationen davor einfach besser gearbeitet hatten, unter anderem die Trennung von HPC und Gaming früher durchgezogen haben). Aber vergessen sollte man RDNA2 nicht.

Ich stimme deinen Schlussfolgerungen im übrigen zu: Wenn NV mehr als 30% Mehrperformance bieten will, werden sie an der Verbrauchs-Schraube drehen müssen. Denn einer der Gründe, warum RDNA2 so viel effizienter als RDNA1 ist, ist der große Cache. Und den hat NVidia ja auch. Daher wird man den Joker nicht mehr ziehen können. Ob man in nächster Zeit einen ähnlichen Faktor findet, halte ich eher für unwahrscheinlich, auch wenn man das nie ausschließen kann.

MD_Enigma
2024-03-20, 12:31:09
Puh, ich bin hin und hergerissen was ich meinem Bruder demnächst für die Grafikkarten kaufen soll.

Eine 4080 ist imho nicht zukunftssicher, da die Rohpower für Pathtracing nicht ganz reicht und ist dafür schon echt happig teuer. Da schaue ich auf die klassische Render-Power und will Preis/Leistung.

Mein Auge fällt dabei auf irgendetwas zwischen 4070 und 7800XT. Beide Karten sind aber doch echt teuer und eine gebrauchte 3080 wäre die bessere Lösung. Hmmm.

Gastronom
2024-03-20, 12:58:29
“Ein guter Gaul springt nur so hoch wie er muss” Nichts anderes macht Nvidia.
Hoffe auf eine erstärkende Konkurrenz seitens AMD und Intel.

Leonidas
2024-03-20, 13:10:20
eine gebrauchte 3080 wäre die bessere Lösung.

Nur (!) die 12-GB-Ausführung.

Blase
2024-03-20, 13:16:27
Damit scheint dann Blackwell das zu werden, was ich von Ada erwartet hätte :freak:
600 Watt Boliden und 30% mehr als die 4090 leistet. Absolut genau das was ich hätte bei Ada sehen wollen.
Oder anders: Es gibt dann endlich einen validen Nachfolger zu Ampere. Ada war nur ein Zwischending, wegen null Konkurrenz. Einzig für den Umsatz geschaffen.

Wenn ich dein Post mal frei interpretieren darf, dann ist die angenommene 5090 also nichts weiter als ne 4090Ti(tan). Genau die 4090Ti)(tan), die du dir bezüglich ADA immer gewünscht hättest. Soweit so gut. Aber die Erwartungshaltung an Blackwell sollte doch deutlich höher sein, als grade mal die Performance einer angenommenen 4090Ti(tan) im Vollausbau und voll ausgefahren zu bringen - oder?!

Jeder 4090 Besitzer würde sich bestätigt fühlen, mit dem Kauf alles richtig gemacht zu haben. Im Vergleich zur vorherigen 3090Ti einen überaus deutlichen Abstand und die nachfolgende Generation selbst mit der Brechstange ein eher unterdurchschnittlicher Leistungszuwachs.

Wenn es denn so kommt...

MfG Blase

MiamiNice
2024-03-20, 13:26:19
Ja, so ist es. User sind halt unterschiedlich. Für mich ist eine 4090 eine unausgereizte Karte, die absolut kein Verkaufsargument hat. Für andere User ist es die perfekte Karte, weil sie mit deutlich weniger Wattage betrieben werden kann, als auf der Packung steht. Ist so eine Sache des Standpunkts, wobei mir nicht klar ist warum man mit einer GPU sparen wollte :confused: Wenn ein Hobby zu teuer ist, ist es eventuell das verkehrte Hobby. Wenn man sich um seinem Stromabdruck schert, ist PC Gaming auch irgendwie das verkehrte Hobby. Aber das ist nur meine Meinung dazu.

Ich halte es es halt eher wie Tim Taylor :biggrin:

Aber natürlich sind generell 30% nicht erstrebenswert. Ich bin mir auch nicht sicher ob das so stimmen wird. Ist schon arg wenig. Im Prinzip, wenn sie so kommt (5090), einfach nur die erste echte ausgereizte Ada Karte.

Platos
2024-03-20, 13:47:53
“Ein guter Gaul springt nur so hoch wie er muss” Nichts anderes macht Nvidia.
Hoffe auf eine erstärkende Konkurrenz seitens AMD und Intel.

AMD könnte da was liefern. Es soll ja angeblich (siehe PS5 Pro Gerüchte) deutlich an RT Perfomance zulegen und es gibt auch Vermutungen, dass das Upscaling endlich besser werden könnte.

Aber was ändert tut sich erst, wenn man dem anderen Marktanteile abgewinnen kann und das tut man nur durch ein besseres P/L (bzw. dem glauben, dieses zu kriegen). Und genau da scheint AMD irgendwie kein Interesse zu haben. Das einzige, was AMD Karten günstig macht, ist der Markt und nicht AMD.

Und bezüglich Intel: Das wird wohl noch lange dauern. Gerade im Bereich effizienz. Für Leute, die Stromverbrauchskosten nicht ausrechnen können, dürfte das wohl egal sein, aber für andere nicht. Und wir haben ja gesehen damals am ende des Mining-Booms, dass Intel selbst dann nicht bereit war, gute Preise anzubieten, sondern voll mit den Mining-Preisen mitzureiten.

Und dazu kommt noch: Intels Marktanteile wurden ja primär bei AMD geholt und nicht bei nvidia (was ja wichtig wäre für uns Kunden).

Ein funktionierendes Duopol oder "Triopol" bringt nichts. Es muss so laufen wie damals 2017, als AMD angefangen hat zu puschen. Wobei sie dann mit Zen3 wieder aufgehört haben damit und höhere Preise verlangten. Jetzt ist ja Intel der, der das P/L (bei Multithread) puscht, nicht mehr AMD. Bei denen kostet der 6-Kerner das, was früher der 8-Kerner kostete. Die sind wieder am Verteuern.

Also kurz gesagt: 2-3 Teilnehmer an sich bringen nichts. Es braucht auch den Willen, mehr fürs Geld zu bieten und nicht nur auf der Welle mitzureiten.

Raff
2024-03-20, 14:06:51
Nur (!) die 12-GB-Ausführung.

Wobei die im Vergleich ein echt versoffenes Stück ist. Das kriegt man zwar mit Undervolting halbwegs geregelt, aber um 500 Euro spricht wirklich wenig gegen eine neue RTX 4070 und 7800 XT.

MfG
Raff

Gast-LAZA
2024-03-20, 14:25:00
"
Kurz nach seinem Interview bei CNBC, aus dem vielerorten „Blackwell kostet 30.000 bis 40.000 US-Dollar pro GPU“ abgeleitet wurde,
hat Huang die eigene Aussage gegenüber Journalisten auf Nachfrage noch einmal in einen breiteren Kontext gesetzt.

Nein, er habe sich nicht auf das Preisschild für einzelne GPUs bezogen, die verkaufe Nvidia schlussendlich auch gar nicht.
Stattdessen ginge es immer um Systeme, die neben der GPU weitere Bestandteile wie beispielsweise den NVLink sowie Software,
aber auch die Integration und Optimierung im Rechenzentrum umfassen.
Von Kunde zu Kunde seien die Anforderungen andere.
Die 30.000 bis 40.000 US-Dollar seien daher als Total Cost of Ownership (TCO) zu verstehen, wobei fraglich bleibt,
ob Huang damit die per Definition enthaltenen Betriebskosten ebenfalls gemeint hat.
"


Quelle:
https://www.computerbase.de/2024-03/wie-viel-kostet-blackwell-nvidias-ceo-relativiert-30-000-bis-40-000-usd-aussage/

BlacKi
2024-03-20, 15:33:36
ich hab viele fragen.

wie konnte man die density so stark steigern, und was sind die konsequenzen? weniger max takt? wie wirkt sich das dann bei den gaming karten aus? die karten sind wegen hoher powerlimits kaum taktbegrenzt. wenn dann weniger takt anliegt wegen der density steigerung, wird auch der verbrauch sinken und damit auch performance.

die einzigste lösung die nv hier bieten wird IMHO, sind mehr chipfläche pro euro. es könnten große chips günstiger werden als bei ada.

vermutlich kommt der gb202 in form einer 5090 wieder für 1499€ und bietet 40% bessere performance. wieder mit 24gb. und später eine 10% langsamere 5080ti für 999€ mit 20gb.

und eine 5080 mit 16gb für 699€ weil amd wohl im ähnlichen preissegment fischen wird.

Leonidas
2024-03-20, 16:50:41
"Kurz nach seinem Interview bei CNBC, aus dem vielerorten „Blackwell kostet 30.000 bis 40.000 US-Dollar pro GPU“ abgeleitet wurde, hat Huang die eigene Aussage gegenüber Journalisten auf Nachfrage noch einmal in einen breiteren Kontext gesetzt.

Danke für den Hinweis!

Gast
2024-03-20, 19:50:47
Unwahrscheinlich. Man hat die kleinen Chips aber vermutlich früher zur Verfügung, setzt jene aber zuerst für Mobile ein. Wichtigerer Markt als Desktop-Einsteigerware.





Guter Einwand. Aber: Vega war alte Architektur, nicht designt für 7nm.

Eher kann man 5700XT vs 6700XT betrachten - da sind es +30%. Aber werden NV +30% Mehrperformance reichen? Unwahrscheinlich, ergo muß man für Mehrperformance größer als +30% dann doch wieder mehr TDP ansetzen. Eigentlich ist dies sogar ein Beweis dafür, das es kaum anders geht. Natürlich ist nichts unmöglich, Überraschungen sind nicht ausgeschlossen.
Vega/Vega2 war HPC, das war das Problem. Die Radeon 7 bspw hatte das best bestückte PCB, für Gamer war das konpletter Dummfug. Das war mit zu höchster Industriestandard. Aus meiner Sicht hat AMD dieser Dinger fast verschenkt.

TM
2024-03-20, 21:16:06
Durch Architekturverbesserungen ist eine ganze Menge drin!

Ich habe eine wassergekühlte RTX 4090 (davor 3090, 3080Ti, 2080Ti, TitanXP - alle mit Wasserkühlung).

Meine untervoltete 4090 (2520MHz/875mV) ist 82% (!!!) schneller als meine alte untervoltete 3090/3080Ti (1740 MHz/775mV) in 4K.

Die 4000er und die 3000er Serien skalieren unglaublich schlecht mit zusätzlichen Shadern/FP32-ALUs.
Eine RTX 4080 Super hat 5% mehr Kerne, aber nur 2% mehr Leistung als eine normale 4080. Eine 4090 hat 60% (!!!) mehr Kerne als eine 4080 Super, diese resultieren jedoch nur in 30% Mehrleistung.
Die 4090 skaliert auch unglaublich schlecht mit höheren Taktraten.
Meine 4090 ist mit UV (2520 MHz) nur 13% langsamer als mit OC auf 3075 MHz. Dies trotz 22% Mehrtakt. Die Leistungsaufnahme explodiert jedoch um 50%!
Durch Architekturverbesserungen sind bei gleichen Shadern und Takt 30% + 9% Mehrleistung möglich.
Die 1080 Ti (und 2080Ti) haben fast perfekt mit mehr Kernen skaliert verglichen mit der 1080.

TM
2024-03-20, 21:18:46
Eine Ada-Titan mit Vollausbau wäre nur ca 5% schneller als eine 4090. Dies bei 18176 zu 16384 Kernen (+11%), da die Karten nur zu ca. 50% skalieren mit mehr Kernen (siehe voriger Post).
Ich habe mit einem ModBios mit 500 Watt statt 450 Watt nur eine Mehrleistung von 1%!
Ich rede hier von Idealbedingungen mit einer starken Wasserkühlung und sehr guten VRAM-Pads, bei Luftkühlung wären die Ergebnisse noch schlechter.

Platos
2024-03-20, 22:20:04
Joa, das ist so. Meine RTX 4080 läuft @ 230Watt @ 0.92V bei ca. -5% Perfomance zu default (320Watt Custom Karte). Glaube das war 2650MHz oder so (müsste nachschauen). Weniger als 0.92V geht leider nicht. Es ginge sogar noch mehr Takt, aber die Perfomance steigt dann nicht mehr (min fps sinken, während avg zunimmt, also schlecht). Habe irgendwie das Gefühl, ich hab ein Golden-Sample erwischt (und das auch noch auf dem Gebrauchtmarkt).

Wer die Karten bei default betreibt, sollte das schnellstens ändern.

Das ist aber nix neues. Das war schon bei Pascal so.

Und bezüglich Einheitenskalierung: Bin immer noch gespannt, wie genau nvidia dieses Problem lösen will, denn das müssen sie.

Gast
2024-03-20, 23:06:03
Und bezüglich Einheitenskalierung: Bin immer noch gespannt, wie genau nvidia dieses Problem lösen will, denn das müssen sie.

Das muss die Software die entsprechende Anforderungen stellt "lösen".

Gast
2024-03-20, 23:06:43
i

wie konnte man die density so stark steigern, und was sind die konsequenzen?



Optimierter Fertigungsprozess.

Leonidas
2024-03-21, 04:02:53
Vielleicht auch Chip-normiert weniger schlecht skalierende Teile. Pro Chip sinkt das HBM-Interface von 6144 auf 4096 Bit.

Hikaru
2024-03-21, 07:36:56
Ha, war meine Annahme doch richtig, also blablablahh inkl. FX5000 Fiasko. Die FX waren scheisselaut und heiss und genau das gleiche wird mit der 5090 aka 4090 "Overdrive" passieren.

Zudem kommen gefühlt (für mich zumindest) nur noch Müllspiele raus die eine solch teure Grafiklösung eher nicht rechtfertigen. Robocop ist eine angenehme Aussnahme unter dem ganzen Müll:)

Meanwhile weiss ich garnicht woher ich die Zeit nehmen soll all die Switch Perlen zu zocken...

Gast
2024-03-21, 13:08:33
Falsche Analyse von GPU Work Graphs.
Wenn es so wie beschrieben ist, bedeutet es in erster Linie, dass man günstigere CPUs verwenden kann, ohne Performance zu verlieren.

Leonidas
2024-03-21, 13:45:51
Und da wirst Du Recht haben! So herum betrachtet ergibt dies viel mehr Sinn.

Gast
2024-03-21, 15:06:52
https://www.computerbase.de/2022-06/maximale-flexibilitaet-bei-tsmc-fuenf-n3-fertigungsstufen-n5-gestapelt-ab-2023/

Von TSMC N3E gibt es (mindestens) 3 Varianten. Verglichen mit N5 2-Fin bietet N3E 2-1 Fin bei der Fläche eines Kern den Faktor 0,64 und +11% Taktfrequenz. N3E 2-2 Fin bringt bei der Fläche eines Kern den Faktor 0,72 und +23% Taktfrequenz und N3E 3-2 Fin bringt bei der Fläche eines Kern den Faktor 0,85 und +33% Taktfrequenz.

Auf unterschiedlichen Teilen eines Dies können offenbar mehrere Varianten gleichzeitig genutzt werden. N3E 2-2 Fin bringt etwa die 1,39 fache Transitordichte bei Logik, bei Cache jedoch weniger. Ingesamt scheint mir, dass 4NP ein seltsamer Name für eine Fertigung vom Grundtyp TSMC N3 zu sein.

Leonidas
2024-03-22, 04:30:30
4NP hat auch nix mit N3 zu tun. 4NP ist in jedem Fall ein 5nm-Derivat, wahrscheinlich nur ein anderer Name für N4P.