Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 28. Januar 2022
Leonidas
2022-01-29, 10:05:27
Link zur News:
https://www.3dcenter.org/news/news-des-28-januar-2022
etp_inxession
2022-01-29, 10:13:22
Also bei >300 Watt Verbrauch bin ich raus. Auf Ewig!
Dann eben lieber die Details runter ....
Die HBM-Argumentation ergibt keinen Sinn. Grade durch die doch bei HBM sehr hohe Geschwindigkeit spart HBM enorm Die-Space und PCB-Kosten, die bei GDDR6 bis 27Gbps (angekündigt durch SKHynix) ebenfalls enorm sein dürften. Es ist genau umgekehrt: Je höher die Datenrate bei HBM und je schwieriger die GDDR6-Implementation auf gleichem Leistungsniveau, desto günstiger wird HBM im Vergleich. Es ist also nur ne Frage der Zeit, bis HBM im High-End-Gaming Standard sein wird.
Leonidas
2022-01-29, 10:43:16
Also bei >300 Watt Verbrauch bin ich raus.
HPC-Lösung ist keine Gaming-Lösung.
Die HBM-Argumentation ergibt keinen Sinn.
Die Ausführung zur Technik hatte nix mit der Preis-Diskussion zu tun. Theoretisch kann HBM durchaus günstiger sein. Rein praktisch wissen wir es nicht, wir können nur rätseln.
Auffällig ist mir nur, dass HBM-Karten nie von ihrer überlegenen Speicherbandbreite wirklich profitiert haben. Womöglich klappt es in der Praxis nicht so gut wie in der Theorie. Nur eine These natürlich.
Lehdro
2022-01-29, 11:47:49
Auffällig ist mir nur, dass HBM-Karten nie von ihrer überlegenen Speicherbandbreite wirklich profitiert haben. Womöglich klappt es in der Praxis nicht so gut wie in der Theorie. Nur eine These natürlich.
Mining? :D
iamthebear
2022-01-29, 12:30:54
Also bei >300 Watt Verbrauch bin ich raus. Auf Ewig!
Dann eben lieber die Details runter ....
Das sind GPUs für Datacenter. Da wird nichts drauf gespielt. Da geht es um wissenschaftliche Berechnungen und wenn statt 5 alten GPUs eine neue eingesetzt wird dann wird es in Summe stromsparender auch wenn sich die Verpustleistung pro GPU verdoppelt.
Was die Gaming Karten angeht (das wird dann Lovelace sein, nicht Hopper): Niemand zwingt dich die Karten bis zum Maximum hochzutakten. Eine 3080 läuft z.B. wunderbar wie die 2080 Ti mit 270W statt 320W und man verliert dabei auch nur ca. 4% Performance.
Die HBM-Argumentation ergibt keinen Sinn. Grade durch die doch bei HBM sehr hohe Geschwindigkeit spart HBM enorm Die-Space und PCB-Kosten, die bei GDDR6 bis 27Gbps (angekündigt durch SKHynix) ebenfalls enorm sein dürften. Es ist genau umgekehrt: Je höher die Datenrate bei HBM und je schwieriger die GDDR6-Implementation auf gleichem Leistungsniveau, desto günstiger wird HBM im Vergleich. Es ist also nur ne Frage der Zeit, bis HBM im High-End-Gaming Standard sein wird.
Das mit den HBM Kosten lässt sich schwer beantworten. Derzeit ist GDDR6 auf Grund der hohen Nachfrage mit 13$/GB extrem teuer und es scheint so als wäre der Preis schon gleich mit HBM (sorry habe keine Daten wo der Preis hier aktuell liegt). Wenn jedoch Nvidia auf HBM setzt, dann wird eben HBM knapp sein. Es ist überhaupt die Frage, ob hier so schnell überhaupt genug Kapazitäten da wären. Gerade in der aktuellen Situation wo DRAM Preise explodieren aber Wafer Preise relativ konstant bleiben macht es natürlich Sinn die notwendige Bandbreite stattdessen mit Cache zu erschlagen. Besser 16$ bzw. 1$/GB bei Navi21 in den Infinity Cache stecken als z.B. 5$/GB in HBM.
Rabiata
2022-01-29, 12:47:49
Auffällig ist mir nur, dass HBM-Karten nie von ihrer überlegenen Speicherbandbreite wirklich profitiert haben. Womöglich klappt es in der Praxis nicht so gut wie in der Theorie. Nur eine These natürlich.
"Aufteilung des Speicherinterfaces in doppelt so viele Kanäle" könnte helfen. Allerdings bräuchte es dazu eine GPU, bei der das konfiguriert werden kann.
Und was die Die-Größe bei GH 100 angeht, werden wir den Chip wohl schon aus Preisgründen nicht für Spielergrafikkarten zu sehen bekommen. Außer Nvidia finden ein paar Verrückte, die auch 5000 € pro Karte hinlegen :biggrin:.
etp_inxession
2022-01-29, 12:49:16
Mir ist schon klar das dies die HPC Lösungen sind.
Aber bei nVidias Ampere sind wir schon >300 W
Der Nachfolger wird nicht weniger ziehen, nach letzten Gerüchten.
Leonidas
2022-01-29, 13:14:25
Außer Nvidia finden ein paar Verrückte, die auch 5000 € pro Karte hinlegen :biggrin:.
So lange die HPC-Lösungen (wie bisher) kein RayTracing in HW haben, wäre es noch mehr als nur "verrückt".
nVidia GA100 Ampere 7nm TSMC 54 Mrd. Transistoren auf 826mm² 65,4 Mio. Tr./mm²
Was ist mit Samsung? Fertigen die überhaupt keine Chips mehr für nvidia?
Ist die Ausbeute bei so großen Chips nicht ein Problem?
Leonidas
2022-01-29, 14:04:41
Was ist mit Samsung? Fertigen die überhaupt keine Chips mehr für nvidia?
Die haben allein Gaming-Ampere gefertigt. Und danach geht es wieder zu TSMC. Samsung hat für NV faktisch versagt, weil man mit der Quantität nicht in die Pötte gekommen ist.
Ist die Ausbeute bei so großen Chips nicht ein Problem?
Ist sie. Deswegen gibt es keine Produkte im Vollausbau und alles ist auf Redundanz ausgelegt.
Dies verwundert etwas angesichts der früheren, klaren Gerüchte über einen MCM-Ansatz bei "Hopper" (im Gegensatz zu nVidia Gaming-Lösungen bei "Lovelace") – denn mittels MCM könnte man richtig viel Mehrperformance auch mit zwei etwas kleineren Einzelchips erreichen.
Vermutlich sind die höheren Latenzen beim MCM-Ansatz suboptimal für wissenschaftliche Berechnungen. Bei Gaming-GPUs sind die hingegen eher vernachlässigbar.
iamthebear
2022-01-29, 16:25:36
"Aufteilung des Speicherinterfaces in doppelt so viele Kanäle" könnte helfen. Allerdings bräuchte es dazu eine GPU, bei der das konfiguriert werden kann.
Man kann DRAM nicht einfach so in mehrere Kanäle aufteilen. Mehr Kanäle erfordern immer zusätzlicher Steuerleitungen über die das Kommando gesendet wird. Falls diese vorhanden sind wüsste ich ehrlich gesagt nicht wozu man das noch konfigurierbar machen sollte.
Und was die Die-Größe bei GH 100 angeht, werden wir den Chip wohl schon aus Preisgründen nicht für Spielergrafikkarten zu sehen bekommen. Außer Nvidia finden ein paar Verrückte, die auch 5000 € pro Karte hinlegen :biggrin:.
Ich denke das Hauptproblem ist eher, dass die zusätzlichen Transistoren für so Dinge wie FP64 oder übertriebener Tensor Core Performance drauf geht. Abgesehen davon wird sicher wieder einiges fehlen z.B. RT oder auch die Displayausgänge.
Die haben allein Gaming-Ampere gefertigt. Und danach geht es wieder zu TSMC. Samsung hat für NV faktisch versagt, weil man mit der Quantität nicht in die Pötte gekommen ist.
Also was ich gehört habe war es geplant auch die Gaming Chips bei TSMC fertigen zu lassen aber es ist an den Preisverhandlungen gescheitert da Jensen zu hoch gepokert hat. Samsung war dann nur die 2. Wahl.
Nachträglich war es jedoch die richtige Entscheidung von Nvidia, denn TSMC hätte die Kapazitäten sowieso nicht gehabt. Woher die Information über die Lieferschwierigkeiten bei Samsung herkommen weiß ich nicht. Ich denke das war großteils nur eine Ausrede beim Launch um den üblichen Fake UVP zu rechtfertigen (selbes Spiel wie beim Pascal und Turing Launch).
2021 waren die 7nm TSMC Kapazitäten:
27% AMD
21% Nvidia
12% Qualcomm
10% Mediatek
7% Intel
Nvidias Gaming GPUs wären mit Sicherheit um die 30% gewesen. Da frage ich mich wen TSMC dann raus befördert hätte. AMD wohl kaum, Qualcomm und Mediatek auch nicht.
Leonidas
2022-01-29, 17:03:39
Ich denke aber, Samsung hat maßgeblich dabei versagt, die Produktion wirklich anzuziehen, als man es gebraucht hat. Natürlich hätte NV bei TSMC auch nicht mehr bekommen - aber TSMC läuft am Limit, während Samsung eher über sich selber stolpert.
2021 waren die 7nm TSMC Kapazitäten:
27% AMD
21% Nvidia
12% Qualcomm
10% Mediatek
7% Intel
Nvidias Gaming GPUs wären mit Sicherheit um die 30% gewesen. Da frage ich mich wen TSMC dann raus befördert hätte. AMD wohl kaum, Qualcomm und Mediatek auch nicht.
Zu hoch geschätzt. Bei AMD sind CPUs + Spielekonsolen-SoCs mit drin. Da kommt NV allerhöchstens auf 20%, selbst wenn alles nur von TSMC kommt.
Sind ca. 850mm2 nicht das Maximum der Photomaske? Größer kann es eigentlich nicht sein.
Auffällig ist mir nur, dass HBM-Karten nie von ihrer überlegenen Speicherbandbreite wirklich profitiert haben. Womöglich klappt es in der Praxis nicht so gut wie in der Theorie. Nur eine These natürlich.
Die Grafikkarten operieren beim Gaming nur selten am Bandbreitenlimit. Wenn ausreichend Bandbreite vorhanden ist, bringt weitere Bandbreite nichts mehr.
Der Hauptvorteil für HBM ist, dass man fürs Speicherinterface wesentlich weniger Strom verbraucht, und man damit mehr vom Powerbudget für den Rest zur Verfügung hat.
Vermutlich sind die höheren Latenzen beim MCM-Ansatz suboptimal für wissenschaftliche Berechnungen. Bei Gaming-GPUs sind die hingegen eher vernachlässigbar.
Genau umgekehrt, diese werden in riesigen Clustern über mehrere GPUs verteilt die noch nicht mal unbedingt alle im selben Gehäuse sitzen durchgeführt. Entsprechende Algorithmen sind auf verteiltes Rechnen ausgelegt, und im Gegensatz zum Gaming spielt Latenz kaum eine Rolle, hier kommt es nur auf den Durchsatz an.
Eldoran
2022-01-29, 17:23:51
Ein Aspekt bei HBM im HPC Bereich ist auch, das der Vorteil von HBM im effizienteren refresh liegt. Der Effekt hängt allerdings sehr von der Menge des verbauten RAMs ab. Beim Gaming wird im Vergleich wenig RAM verbaut und daher ist der Effekt vernachlässigbar. AMD hatte bei vega auch Probleme in der Fertigung der Karten, da das ganze mechanisch viel empfindlicher ist als normale packages. Lagerhaltung, Modellpflege weiterer Flaschenhals bei Fertigung ist das Aufbringen auf den Interposer, etc... Es ergeben sich diverse Probleme/Kosten womit es für uns Außenstehende sehr schwer einzuschätzen ist
Die HBM-Argumentation ergibt keinen Sinn. Grade durch die doch bei HBM sehr hohe Geschwindigkeit spart HBM enorm Die-Space und PCB-Kosten, die bei GDDR6 bis 27Gbps (angekündigt durch SKHynix) ebenfalls enorm sein dürften.
Anscheinend dürfte ein Interposer immer noch deutlich teurer sein. Dafür braucht man immerhin ein Silizium-DIE das größer als die Summe aus GPU und RAM ist.
EIMB oder vergleichbares sollte da die Kosten deutlich senken, aber anscheinend ist es fraglich was von der Technik hier außerhalb von Intel verfügbar ist.
iamthebear
2022-01-29, 18:04:09
Die Zahlen von mir kamen von hier:
https://www.hardwaretimes.com/amd-to-be-tsmcs-largest-7nm-client-in-2021-apple-to-get-53-5nm-wafers/
Laut den Geschäftszahlen macht der Gamingmarkt ca. 50% vom Umsatz aus.
https://www.3dcenter.org/news/die-nvidia-geschaeftsergebnisse-im-dritten-quartal-2021
Meine geschätzten 30% kommen daher dass:
a) Von den 50% Rest sicher nicht alles bei TSMC 7nm gefertigt wird.
b) Die Marge bei Datacenter deutlich höher ist
Meine Schätzung des Gesamtbedarfs von Nvidia (falls nur mit TSMC 7nm gefertigt wird):
.) Gaming 55%
.) Rest (bisher in TSMC 7nm): 38%
.) Rest (bisher anders gefertigt): 7%
Wenn 38% bei Nvidia 21% bei TSMC 7nm ausmachen.
Dann sind 55% bei Nvidia ca. 30% bei TSMC.
Kleine Gegenkontrolle:
Die 7nm Kapazität von TSMC müssten um die 120K Wafer/Monat sein. Das entspricht
AMD hat ja in 2021 GPUs ja nur in homöopathischen Dosen ausgeliefert und bei den CPUs wird der IO Die ja immer noch in 12nm gefertigt, wobei der Compute Die relativ klein ist. Den größten Teil dürfte beim AMD eher die Konsolen ausmachen. Allerdings ist hier fraglich wieviele Chips davon AMD bereits 2020 vor dem Launch vorproduziert hat.
bloodflash
2022-01-29, 18:42:06
2021 waren die 7nm TSMC Kapazitäten:
27% AMD
21% Nvidia
12% Qualcomm
10% Mediatek
7% Intel
Die Zahlen kann ich schon deshalb nicht glauben, weil Apple fehlt. Auch die alten/günstigeren Geräte von denen werden ja noch gut verkauft.
Genau umgekehrt, diese werden in riesigen Clustern über mehrere GPUs verteilt die noch nicht mal unbedingt alle im selben Gehäuse sitzen durchgeführt. Entsprechende Algorithmen sind auf verteiltes Rechnen ausgelegt, und im Gegensatz zum Gaming spielt Latenz kaum eine Rolle, hier kommt es nur auf den Durchsatz an.
Du irrst dich und ignorierst, dass sich diese Verteilen negativ auf die Performance auswirkt und dass auch höhere Latenzen der einzelnen GPUs bei wissenschaftlichen Berechnungen negativen Einfluss auf die Performance haben. Im Gegensatz zum Gaming spielen dabei Latenzen eine größere Rolle. Deswegen gibt es auch millionenteure WSE mit "ultra low latency inference".
Du irrst dich und ignorierst, dass sich diese Verteilen negativ auf die Performance auswirkt und dass auch höhere Latenzen der einzelnen GPUs bei wissenschaftlichen Berechnungen negativen Einfluss auf die Performance haben.
Hängt natürlich davon ab was genau. man macht. Der Großteil von dem was auf riesigen GPU Cluster berechnet wird sind allerdings Dinge die Stunden oder gar Tagelang rechnen, wovon jede Menge gleichartige voneinander unabhängige Berechnungen durchgeführt werden.
Im Gegensatz zum Gaming spielen dabei Latenzen eine größere Rolle.
Beim Gaming brauchst du das Ergebnis in ms, bei HPGPU irgendwo im Bereich von mehreren Minuten bis Stunden, alleine dadurch wird ersichtlich, dass Gaming wesentlich empfindlicher auf Latenzen reagiert.
Und genau deshalb war auch bis jetzt immer MultiGPU im Gaming nie wirklich ideal, obwohl die GPUs teilweise sogar am selben PCB sitzen.
Deswegen gibt es auch millionenteure WSE mit "ultra low latency inference".
Dieses "ultra low latency" ist immer im Verhältnis zum physischen Abstand zu sehen, und immer noch um Größenordnungen zu lang fürs Gaming.
Deswegen gibt es auch millionenteure WSE mit "ultra low latency inference".Für was?
Hängt natürlich davon ab was genau. man macht. Der Großteil von dem was auf riesigen GPU Cluster berechnet wird sind allerdings Dinge die Stunden oder gar Tagelang rechnen, wovon jede Menge gleichartige voneinander unabhängige Berechnungen durchgeführt werden.
Beim Gaming brauchst du das Ergebnis in ms, bei HPGPU irgendwo im Bereich von mehreren Minuten bis Stunden, alleine dadurch wird ersichtlich, dass Gaming wesentlich empfindlicher auf Latenzen reagiert.
Und genau deshalb war auch bis jetzt immer MultiGPU im Gaming nie wirklich ideal, obwohl die GPUs teilweise sogar am selben PCB sitzen.
Du irrst dich. Dass beim Gaming die Latenzen weniger wichtig sind, siehst du schon am verwendeten GDDR Speicher. GDDR VRAM ist auf hohen Datendurchsatz und nicht auf niedrige Latenzen optimiert. Bei wissenschaftlichen Berechnungen kann man sich hingegen nicht erlauben, die Latenzen zu vernachlässigen, sonst wird die Architektur zu ineffizient.
Dieses "ultra low latency" ist immer im Verhältnis zum physischen Abstand zu sehen, und immer noch um Größenordnungen zu lang fürs Gaming.
Informiere dich bitte erst einmal. "ultra low latency" bezieht sich auf die gegenüber herkömmlichen GPU-Clustern um Größenordnungen schnellere Kommunikation zwischen den Cores der WSE. Wären Latenzen weniger wichtig, bräuchte man keinen monolitischen 46.225mm²-Chip mit 40 GB SRAM entwickeln, der Millionen kostet und 20kW verbrät.
Leonidas
2022-01-30, 03:21:14
Die Zahlen kann ich schon deshalb nicht glauben, weil Apple fehlt. Auch die alten/günstigeren Geräte von denen werden ja noch gut verkauft.
Apple war schon auf 5nm, deswegen tauchen sie in der 7nm-Statistik kaum noch auf.
MasterElwood
2022-01-30, 04:53:43
Die haben allein Gaming-Ampere gefertigt. Und danach geht es wieder zu TSMC. Samsung hat für NV faktisch versagt, weil man mit der Quantität nicht in die Pötte gekommen ist.
Dachte NV hat 2021 deutlich mehr ausgeliefert als AMD - und auch selbst mehr als je zuvor? :confused:
Gast12345
2022-01-30, 11:50:18
AMD hat ja in 2021 GPUs ja nur in homöopathischen Dosen ausgeliefert und bei den CPUs wird der IO Die ja immer noch in 12nm gefertigt, wobei der Compute Die relativ klein ist. Den größten Teil dürfte beim AMD eher die Konsolen ausmachen. Allerdings ist hier fraglich wieviele Chips davon AMD bereits 2020 vor dem Launch vorproduziert hat.
Hä, was bitte?
Der Markt ist um gute 8% gewachsen, wobei nur 40% der Auslieferungen beim Gamer ankommen, die für Gamer bestimmt sind. Der Rest landet bei Minern und was dort nicht landet kaufen Scalpern weg, was die Knappheit weiter verschärft. Das liegt überhaupt nicht an den Auslieferungen von SKUs und Speicher! Das was über Paletten direkt ab Werk verkauft wird, ist davon ausgenommen.
Schreibt doch in eurem Hate-Wahn, nicht immer so einen Stuss. AMD hat soviel ausgeliefert wie nie zuvor! Die Konsolenkontingente spielen dabei überhaupt keine Rolle, wenn wäre es EPYC.
Vorproduziert? Da wird nichts vorproduziert, weil die Kapazitäten bis zum letzten Tag ausgelastet werden und Fertigungsstrecken dann parallel ans Netz gehen.
Du irrst dich. Dass beim Gaming die Latenzen weniger wichtig sind, siehst du schon am verwendeten GDDR Speicher. GDDR VRAM ist auf hohen Datendurchsatz und nicht auf niedrige Latenzen optimiert. Bei wissenschaftlichen Berechnungen kann man sich hingegen nicht erlauben, die Latenzen zu vernachlässigen, sonst wird die Architektur zu ineffizient.
Du verwechselst hier RAM-Latenzen mit Inter-GPU-Latenzen
Informiere dich bitte erst einmal. "ultra low latency" bezieht sich auf die gegenüber herkömmlichen GPU-Clustern um Größenordnungen schnellere Kommunikation zwischen den Cores der WSE.
Ja, und damit Inter-GPU-Latenz. Die ist für Gaming noch immer um ein vielfaches zu hoch, und um Größenordnungen höher als die Latenz zum lokalen RAM.
Das Gaming mit für RAM-Verhältnisse hohe Latenzen klarkommt heißt nicht, dass es mit dem im Verhältnis zum RAM trotz "Ultra Low Latency" riesigen Latenzen zwischen den GPUs klarkommt.
Leonidas
2022-01-30, 13:31:51
Dachte NV hat 2021 deutlich mehr ausgeliefert als AMD - und auch selbst mehr als je zuvor? :confused:
Stimmt. Aber NV hätte gern noch viel mehr ausgeliefert. Deswegen war und ist man mit Samsung nicht glücklich.
Rabiata
2022-01-30, 15:02:50
Man kann DRAM nicht einfach so in mehrere Kanäle aufteilen. Mehr Kanäle erfordern immer zusätzlicher Steuerleitungen über die das Kommando gesendet wird. Falls diese vorhanden sind wüsste ich ehrlich gesagt nicht wozu man das noch konfigurierbar machen sollte.
In der News geht es um HBM3. Neuer Standard, vielleicht sind da auch extra Steuerleitungen vorgesehen.
Mein Kommentar zur Konfigurierbarkeit war mißverständlich, ich dachte an Vergleichstests zwischen separat angesteuerten Kanälen und je zwei zusammen als breiter Kanal angesteuertem Speicher. Damit könnte man sehen, wie viel die Aufteilung des Speicherinterfaces in doppelt so viele Kanäle wirklich bringt.
Stimmt. Aber NV hätte gern noch viel mehr ausgeliefert. Deswegen war und ist man mit Samsung nicht glücklich.
Wenn Samsung so wenig liefern könnte hätte NV nicht mehr als jemals zuvor liefern können.
Der Grund warum NV Samsung gewählt hat war einerseits, dass man traditionell mit der Entscheidung für einen neuen Fertigungsprozess immer sehr spät dran ist, und TSMC zu dem Zeitpunkt schon ausgebucht war, und die Annahme, dass man auch mit einem unterlegenen Fertigungsprozess AMD in Schach halten kann.
Letzteres ist auch der Grund für die Rückkehr zu TSMC, nachdem AMD mittlerweile so weit aufgeholt hat, dass diese Rechnung gerade so einigermaßen aufgeht, NV aber nicht mehr die gewohnte Überlegenheit von früher hat will man nun sichergehen, beim Prozess keinen Nachteil mehr zu haben. Deshalb hat NV auch schon entgegen der Firmenphilosophie sehr früh 5nm Kapazitäten reserviert, noch bevor abzusehen war wie gut die Liefermengen von Samsung sein werden.
Du verwechselst hier RAM-Latenzen mit Inter-GPU-Latenzen
Offensichtlich überfordert dich das Thema. Die höheren RAM-Latenzen von GDDR VRAM zeigen, dass deine Behauptung, beim Gaming wären niedrige Latenzen wichtiger, falsch ist.
Ja, und damit Inter-GPU-Latenz. Die ist für Gaming noch immer um ein vielfaches zu hoch, und um Größenordnungen höher als die Latenz zum lokalen RAM.
Das Gaming mit für RAM-Verhältnisse hohe Latenzen klarkommt heißt nicht, dass es mit dem im Verhältnis zum RAM trotz "Ultra Low Latency" riesigen Latenzen zwischen den GPUs klarkommt.
Gaming kommt mit hohen Latenzen nicht nur besser klar, es ist weniger wichtig wie die Verwendung von GDDR VRAM zeigt. Wäre dem nicht so, würde stattdessen DDR VRAM verwendet. Diese Tatsache ignorierst du. Bei wissenschaftlichen Berechnungen hingegen sind niedrige Latenzen so wichtig, dass dafür sogar millionenteure monolithische 46.225mm² Chips mit 40 GB SRAM und extrem aufwendige Kühllösungen entwickelt werden.
Platos
2022-01-31, 03:13:26
Stimmt. Aber NV hätte gern noch viel mehr ausgeliefert. Deswegen war und ist man mit Samsung nicht glücklich.
Hmm, ich würde das jetzt auch nicht unbedingt als zwingenden Grund sehen. Vor allem ist doch die Frage, wie viel mehr hätte TSMC liefern können? TSMC ist ja jetzt schon ausgelastet, wo also die Kapazität für nvidia?
Ich denke, nvidia geht zu TSMC, weil sie das nächste mal (gegen RDNA3) einen Prozess an der Spitze brauchen.
Es gab doch nie wirklich Fakten zu den ewigen Behauptungen, dass Samsung zu wenig liefert und/oder eine schlechte Ausbeute haben, oder gab es da jemals mehr wie selbst ernante Gerüchte (spekulieren)?
Leonidas
2022-01-31, 03:58:13
Nein, ich habe nie gesagt, das TSMC in dieser Situation besser wäre. Wäre sogar die schlechtere Wahl für NV gewesen. Aber Samsung wird wohl eher danach beurteilt, wie stark hätte NV werden können, wenn man nicht dieses Lieferproblem mit der Samsung-Fertigung gehabt hätte. Die sind bei NV sicher enttäuscht, dass diese einmalige Gelegenheit auf 90% Marktanteil ungenutzt verstrichen ist.
Und die nächste Gen ist immer wieder ein ganz andere Baustelle. Hier liefert Samsung nicht die passende Technik (5nm ist bei Samsung nur ein 7nm-Derivat) und wenn man genügend Vorbestellungen und Vorauszahlungen bei TSMC macht, dann sichert man sich auch echte Kontingente. Angeblich hat NV TSMC mit Geld zugelegt für 5nm.
Offensichtlich überfordert dich das Thema. Die höheren RAM-Latenzen von GDDR VRAM zeigen, dass deine Behauptung, beim Gaming wären niedrige Latenzen wichtiger, falsch ist.
Sag mal bist du so blöd oder stellst du dich nur so blöd?
Ich spreche die ganze Zeit von Inter-GPU-Latenzen, die sind im ms Bereich, zumindest mit bisherigen Technologien über mehrere Karten hinweg.
RAM-Latenzen sind im ns Bereich und ob GDDR oder DDR ist vollkommen egal, und auch für HPC wird GDDR verwendet. Die paar ns mehr oder weniger sind scheißegal, und die Latenzen von GDDR sind effektiv gar nicht mal so viel höher, es sind nur mehr Takte, dafür taktet er aber auch sehr viel höher.
Ob ein paar ns mehr oder weniger sind beim Gaming scheißegal (und auch beim HPC), Gaming kommt aber nicht gut mit den ms andauernden Latenzen zwischen den GPUs klar, was bei HPC in den meisten Fällen egal ist, da hier die Problemgröße dermaßen skaliert, dass die Latenzen nicht mehr ins Gewicht fallen.
Gaming kommt mit hohen Latenzen nicht nur besser klar, es ist weniger wichtig wie die Verwendung von GDDR VRAM zeigt. Wäre dem nicht so, würde stattdessen DDR VRAM verwendet.
GDDR ist DDR VRAM nur mit anderer Bezeichnung, und unterscheidet sich nicht wesentlich davon.
Leonidas
2022-02-01, 04:19:37
Ich denke, diese Diskussion ist auch in einem wesentlich netteren Tonfall möglich.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.