PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 29. September 2025


Leonidas
2025-09-30, 08:12:35
Link zur News:
https://www.3dcenter.org/news/news-des-29-september-2025

Blase
2025-09-30, 08:53:51
Ob nVidia es sich getraut, bei einem März-Release der ersten RTX50-SUPER-Beschleuniger jene bereits auf der CES 2026 anzukündigen, bleibt noch abzuwarten.

Mal sehen, wann der Refresh tatsächlich kommt. So wirklich nötig scheint er mir zumindest nicht. Die Verbesserungen bezüglich des RAMs sind zwar sehr willkommen. Gleichzeitig waren das aber auch die erwähnenswerten Verbesserungen. Und da ich davon ausgehe, dass die 60er Gen das mehr an RAM gleich initial in sein Portfolio übernehmen wird, würde ich zumindest den Refresh aussitzen und dann sehr genau auf die 60er Gen schauen. Dort gibt es dann voraussichtlich den dicken Speicher zuzüglich einem hoffentlich auch spürbaren Leistungsplus aufgrund tatsächlicher Verbesserungen bzw. Erweiterungen. Und nicht nur ein erneut hochgezogenes Powerlimit...

MfG Blase

aceCrasher
2025-09-30, 13:43:56
Wenn der Super-Refresh wirklich so kommt wäre das das erste Mal seit Ewigkeiten dass über fast das ganze Lineup hinweg der Speicherausbau stimmt.

5060ti 16GB
5070 Super 18GB
5070ti Super 24GB
5080 Super 24GB
5090 32GB

Sieht doch gutz aus. Unter 400€ guckt man bei Nvidia allerdings weiterhin in die Röhre. Eigentlich bedarf es hier noch einer 5060 Super mit 12GB, dann wäre das Lineup wirklich rund. Bei der 5050 finde ich die 8GB sogar noch verständlich, allerdings ist die Karte preislich viel zu nah an der 5060.

Lehdro
2025-09-30, 14:34:30
Davon kann nVidia sein Lied singen bezüglich der Ampere-Generation der GeForce RTX 30 Serie, welche wie bekannt unter der 8nm-Fertigung von Samsung zwar günstig, aber dennoch mit Volumen-Problemen vom Band lief.
War das damals nicht ein Gerücht, bei dem du höchstselbst kommentiert hast dass das als Grund auch zur Verschleierung der Cryptoabzweigungen dienen könnte? Hier stellst du das jetzt als Fakt dar, das Samsung Probleme mit der Yield hatte...recht unwahrscheinlich weil Samsungs 8nm nur ein verbesserter 10nm Prozess war - der damals schon mehrere Jahre alt war (10nm -> H1/2017; 8nm ab 2018, RTX30 startete erst 2020!)

Leonidas
2025-09-30, 15:16:11
nVidia hat eigentlich über die Jahre immer wieder (inoffiziell) geklagt, dass sie nicht wirklich zufrieden sind mit Samsung. Vor allem die Kapazitätssteigerung (im Zuge des Mininghypes) ging wohl nicht so richtig gut los. Am Ende lief es wohl ganz zufriedenstellend, aber NV ist sicherlich eher gewöhnt, dass man springt und das alles funktioniert.

Aber natürlich wird NV diese Lage auch dazu genutzt haben, Samsung die Schuld an allem zu geben. Kann man als der größere Fisch sich eben auch leisten.

Lehdro
2025-09-30, 16:13:23
nVidia hat eigentlich über die Jahre immer wieder (inoffiziell) geklagt, dass sie nicht wirklich zufrieden sind mit Samsung.
[...]
Aber natürlich wird NV diese Lage auch dazu genutzt haben, Samsung die Schuld an allem zu geben. Kann man als der größere Fisch sich eben auch leisten.
Das haben sie bei TSMC genauso gemacht.
Bei TSMC ist es halt komplexes Packaging was das Volumen behindert. Grundsätzlich ist nie NV der Schuldige wenn das Volumen nicht reicht. Man müsste mal denjenigen drankriegen der das Volumen von NV durchplant :freak:
Oder die Story mit Blackwell vor ein paar Monaten, bei dem sich dann Lederjacke persönlich bei TSMC bedankt (https://www.heise.de/en/news/Blackwell-Nvidia-s-AI-accelerator-design-flaw-fixed-thanks-to-TSMC-9992474.html) (quasi öffentlich entschuldigt) hatte, weil die Gerüchteküche das Blame Game (https://www.pcgamer.com/hardware/graphics-cards/nvidia-might-be-in-the-blame-game-with-tsmc-over-blackwell-chip-failures-but-that-doesnt-mean-it-will-go-back-to-samsung/) vorab mitbekommen hatte.
NV ist Raupe Nimmersatt. Von anderen TSMC oder Samsung Kunden hört man nie so etwas, da streicht höchstens mal einer Rabatte (https://wccftech.com/intel-ceo-lost-a-40-discount-for-tsmcs-latest-chip-tech-after-taiwan-remarks-report/) weil ein anderer geopolitische Scheiße labert.

Gastein
2025-09-30, 17:17:42
Wenn der Super-Refresh wirklich so kommt wäre das das erste Mal seit Ewigkeiten dass über fast das ganze Lineup hinweg der Speicherausbau stimmt.


Bei Nvidia stimmte der Speicherausbau schon immer erst zum Ende der aktuellen Konsolengeneration. 2 Jahre später mit dem Release der nächsten Gen fängt das Drama wieder von vorne an mit all den Fanbois die das verteidigen. Dabei ist das alles sowas von durchsichtig.

Platos
2025-10-01, 07:26:37
Dumm nur, dass der Speicherausbau mittlerweile bei den meisten Modellen bei beiden, bzw. allen Marken nicht genug hoch ist. Daher begrenzt sich das (leider) nicht "nur" auf eine Marke, sondern auf alle.

EinWeitererGastHeute
2025-10-01, 09:16:03
bin nicht gerade begeistert von dieser Tabelle...

5070S --> bis dahin ist die 5070 bei aktivem RT/PT eine 1080p Karte - wer braucht 18GB bei 1080p?

5070TiSu --> power draw einer 5080, wird beim 4K Perf-Index aber nicht zur 5080 aufschließen können, ich tippe mal auf max. +10~12% Performancezuwachs ggü. der nonSuper, erzeugt hierbei die gleiche fps/W Katatstrophe wie seinerzeit die 3070Ti

5080S --> einziger Super-Karte, die für mich sinvoll klingt. Leider mit +400W TDP für mich persönlich aber ein NoGo und ein Grund die 6070Ti abzuwarten.

Lehdro
2025-10-01, 11:28:27
bin nicht gerade begeistert von dieser Tabelle...

5070S --> bis dahin ist die 5070 bei aktivem RT/PT eine 1080p Karte - wer braucht 18GB bei 1080p?

5070TiSu --> power draw einer 5080, wird beim 4K Perf-Index aber nicht zur 5080 aufschließen können, ich tippe mal auf max. +10~12% Performancezuwachs ggü. der nonSuper, erzeugt hierbei die gleiche fps/W Katatstrophe wie seinerzeit die 3070Ti

5080S --> einziger Super-Karte, die für mich sinvoll klingt. Leider mit +400W TDP für mich persönlich aber ein NoGo und ein Grund die 6070Ti abzuwarten.
Blackwell braucht zwar viel Saft, allerdings ist TDP nur der maximale Verbrauch, nicht der reale. In der Praxis fahren die Karten meist niedrigere Werte. Das wäre Punkt 1. Punkt 2 wäre: Nur die 5070 "braucht" das Speicherupgrade wirklich, bei 5070 Ti und 5080 ist das zwar ganz nett, aber das ist mehr Produktpflege als alles andere. Die TDP Erhöhung sehe ich auch als sinnfrei an, viel mehr Leistung wird da nicht bei rumkommen.

Viel wichtiger wäre eine 5060 & 5060 Ti mit 12 GiB Speicher.

Platos
2025-10-01, 17:58:13
Das kommt auf die Nutzung an. Es gibt ja schliesslich noch was anderes als Gaming. Und abgesehen davon: Mit Mods ist man schnell über 16GB.

Die Aussage ist etwa so sinnvoll, wie zu sagen, ein 16-Kerner von AMd ist nutzlos, weil man sowieso nicht so viele Kerne braucht.

Lehdro
2025-10-01, 18:03:36
Das kommt auf die Nutzung an. Es gibt ja schliesslich noch was anderes als Gaming. Und abgesehen davon: Mit Mods ist man schnell über 16GB.
Ja, allerdings sind das deutlich geringe Probleme als die anderen Karten.

Wenn der Tradeoff für 5070Ti / 5080 24 GiB ist, dass die 16 GiB Varianten verschwinden, sehe ich das als Verlust. Anders als bei der 5070 bzw. die viel sinnvollere, aber leider theoretische 5060/Ti. Da könnten die kleinen Varianten einfach nur weg.

Simon
2025-10-02, 20:06:16
Link zur News:
https://www.3dcenter.org/news/news-des-29-september-2025
In letzter Zeit kamen ja einige Berichte über Chip Fertigung mit yield und anderen Sachen. Da wollte ich ein paar Kommentare dazu abgeben. Vorab, ich arbeite seit > 17 Jahren in der Chip Fertigung und habe an mehr Qualcomm Modems und SOCs gearbeitet als ich Finger hab, hab an Google ARM CPUs (https://cloud.google.com/blog/products/compute/introducing-googles-new-arm-based-cpu) gearbeitet, deren Pixel phones und tablets, Amazon AWS AI Chips (https://finance.yahoo.com/news/amazon-services-mix-marvell-trainium-195453957.html) und mehr. An was und in welchen Nodes ich momentan arbeite, darf ich natürlich nicht kundtun.

News vom 16. September:
anfänglich die Yield-Rate neuer Nodes natürlich noch nicht hoch sein kann. Bei den vergleichsweise kleinen Chips für Smartphone-SoCs ist dies weniger kritisch, zudem hat Apple wohl auch als einziger TSMC-Abnehmer (zumindest in der Vergangenheit) nur für vollständig funktionierende Dies gezahlt, hatte also nicht das wirtschaftliche Risiko der Fertigungsausbeute zu tragen.
Das stand in letzter Zeit schon mal ähnlich in den News wie hier.
Wenn man als Fab Kunde nur "gute" dies/chips abnimmt statt pro Wafer bezahlt, dann sind die Kosten pro Die/Chip wesentlich höher.
Mit einem einfachen und konstantem Yield Model von 50% +-2% zahlt man als Kunde mehr als das Doppelte, da die Fab hier natürlich einen Risikoaufschlag einrechnet.
Selbst nicht vollständig funktionierende Dies sind gerade in der Anfangsphase von Chip Projekten sehr wertvoll, da sie auch mit Defekten benutzt werden können. Hängt davon ab, was genau da wie schlecht funktioniert: Eine oder ein paar der PCIe Lanes kaputt? Easy, einfach die anderen Lanes benutzen. Zu viele der internen Memories kaputt? Ja, den kann man nicht benutzen.

Aus dem News vom 29. September:
Die Yield-Zahlen beziehen sich auf perfekt hergestellte Chips
Nein, yield bezieht sich auf die Anzahl der Dies und Chips, die "gut genug" oder "benutzbar" sind. "Perfekt" ist kaum ein Chip.

Grundsätzlich wird auch jeder Die/Chip gebinned. Manchmal geht durch die Nachrichten, dass das was besonderes ist, wie zum Beispiel bei hier: Core design: How chip binning helps Apple offer A18 variants (https://appleinsider.com/articles/25/02/20/core-design-how-chip-binning-helps-apple-offer-a18-variants). Das wird mit jedem Chip gemacht. Ausser ich mach einen Blind Build, die sind aber sehr selten. Bei einem Blind Build wird der Die/Chip nicht getestet, geht sofort ins Packaging und von dort in DFT/PSV/Char/Bringup Labs. Innerhalb der "good bins" gibt es dann Abstufungen, je nach Performance, Power Draw und Process Corners. Trotzdem sind alle “good bins” und damit relevant für die Yield Zahlen.

Die "Bins" beziehen sich auf die bins oder trays, in denen handler oder Operator die gefertigten Chips einsortieren. Das sind in der Regel diese JEDEC Trays (https://www.google.com/search?sca_esv=c846489d7201f9ae&udm=2&fbs=AIIjpHxU7SXXniUZfeShr2fp4giZ1Y6MJ25_tmWITc7uy4KIeioyp3OhN11EY0n5qfq-zEMZldv_eRjZ2XLYc5GnVnME7glWodDcaQwvGYJtospyF4hao4VocMoniUVvlzzwRcCLYvfsjPeiuln4 CZ9mxRNzMJl71rp-WEM_b89yTboF0wE9FSbwRYrSVuB6YHexvLk_d7r_74zDurdYUrhSbdL5TbQGiA&q=micro+chip+jedec+tray&sa=X&ved=2ahUKEwi77K3AhoaQAxVOKUQIHeeFKBkQtKgLegQIDBAB&biw=1710&bih=988&dpr=2). Hier sieht man eine Reihe von diesen Bins in einem Handler: Advantest SLT System (https://www.advantest.com/img/products/component-test-system/system-level-test-systems/7038/img-7038-01.png)

"Yield" bezieht sich nicht nur auf die Dies auf einem Wafer, sondern jeden einzelnen Schritt in der jeder Fertigung:

Wafer Sort/Chip Probe
Packaging
Final Test
System Level Test (SLT)

Jeder Verarbeitungsschritt, bei dem etwas schief gehen kann, hat einen Yield.

In der Regel gibt es noch mehrere Temperaturstufen für Wafer Sort, Final Test und SLT: Cold, Room, Hot sind so die üblichen.

Die Yield-Zahlen ... haben zumeist nur bei Kleinchips eine echte Bedeutung
What? Yield ist die wichtigste Kennzahl in der Fertigung, noch vor test time. Vor allem bei grossen Chips. VOR ALLEM bei Multi Chip Modules, wie zum Beispiel GB100.

Großchips arbeiten hingegen massiv mit redundaten Chipteilen
Das war früher eher so. Heutzutage gibt es immer weniger redundante Chipteile da einfach die chip area dafür fehlt und die Designs dadurch noch komplexer werden.

sowie Salvage-Versionen im Produktbereich
Das schon eher.

Der reale Yield, sprich die Anzahl der wirklich benutzten Chips pro Wafer sollte generell bei ca. 80-90% liegen
Bei einem Smartphone SOC 1 Jahr nach Fertigungsbeginn vielleicht.
Bei grösseren Sachen ist der Wafer Sort Yield lange nicht so hoch.
Und Wafer Sort Yield ist noch mit am höchsten. FT Yield nach dem Packaging ist wesentlich niedriger.

würde es lohnen mit mehr Redundanz auf Chip-Ebene sowie mehr Salvage-Lösungen auf Produkt-Ebene zu arbeiten
Siehe oben. Gilt nur für Wafer Sort Yield. Bei Packaging Yield und FT Yield geht das nicht mehr: Packages sind jetzt schon zu voll, mit zu vielen Layers und Traces um da auch nur irgendeine Art von Redundanz zu haben.

welche die Chipentwickler zwischen Samsung oder TSMC entscheiden lassen.
Bin ich froh, erstmal nicht mehr mit Samsung Fab arbeiten zu müssen.