PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 17./18. Juni 2023


Leonidas
2023-06-19, 09:20:24
Link zur News:
https://www.3dcenter.org/news/news-des-1718-juni-2023

Gast
2023-06-19, 10:40:38
So wie man Nv aus der Vergangenheit kennt wird das in einem Crash enden. Die Gier ist in diesem Unternehmen grösser als der klare Verstand. Nämlich dann wenn AI ausläuft und das kann mit den massiven Beschränkungen die nun geplant umgesetzt werden, schneller gehen als einem lieb ist.

Erst war es RT, dann war es die Meta Omniverse, dann Mining und nun soll es AI richten. Sry wer diesen Stuss noch glaubt ist selbst Schuld. Was wirklich Langfristiges ist auch bei Nv nicht in Sicht und wenn einem nunmehr der Gamer Markt auch noch wegbricht kann das schlimmer enden als hier alle glauben. Immerhin hat man seinerzeit den Mining Überschuss über Gamer abverkauft, das geht mit AI Hardware bzw. Trainingsbeschleunigern kaum.

Ich sage einen kapitalen Absturz der Aktie voraus, wenn AI ausläuft. Einen den es noch nie gab, wer hoch fliegt wird um so tiefer fallen. Weder Huang noch Kress sage ich dabei den dafür notwendingen Sachverstand nach. Das sind beide Blasen und die BWLer bei Nv taugen nichts.

Was man diesem Unternehmen in seiner Geschichte über die letzten Jahre alles durchgehen lässt, das verstehe wer will.

Hauptsache der Rubel rollt...letztlich hat man sein Image immer Gamer aufpoliert, ich glaube das Standbein hat was den Ruf des Unternehmens angeht die letzten Jahre massiv gelitten. Man reisst den kompletten Gamer Markt mit in die Tiefe. Das ist den Damen und Herren dort scheissegal.

Und nur so, AMD wird's freuen, Konsolendeals für die Zukunft gesichert. Und weiterhin prägt man die Spieleentwicklung für die nächsten Jahre, was sich schon heute bemerkbar macht. Welcher Schmiede steckt noch grossen Aufwand in PC Ports? Keine....

Und all das Zeug was Nv immer wieder aus dem Hut zaubert wird so belanglos, denn solange eine Konsole das nicht kann, interessiert es die Entwickler in der Masse nicht.

Man merkt selbst nicht, wie dumm man sich anstellt...wie viele gurken dabei auf RTv3, DLSSv3 und FG umher? 1 bis 3 % im Gesamtmarkt? Lol...

madshi
2023-06-19, 10:54:55
Sind das im AI-Segment nicht dramatisch niedrigere Verkaufszahlen als im Gaming-Segment? Weiß jemand, welche Anzahl von professionellen GPUs Nvidia im letzten Quartal verkauft hat im Vergleich zu Gaming GPUs?

Ich tue mich etwas schwer damit zu glauben, daß der professionelle Markt groß genug ist, um all die Produktions-Kapazitäten, die für Gaming gedacht waren, aufzufangen. So groß der Bedarf an AI auch sein mag, das kann doch nicht annähernd funktionieren, oder?

Klar ist das beim Thema Umsatz und Gewinn wieder ganz anders. Da sind die Margen im professionallen Bereich sicher gigantisch, und entsprechend auch der Umsatz. Aber ich rede jetzt nur von Stückzahlen...

Leonidas
2023-06-19, 12:21:33
Dramatisch niedrigere Stückzahlen - ja *. Aber dafür große Chipflächen. 800mm² Chips. Da bekommt man 4x so viel AD106 dafür.

* ByteDance (China) bei NV im H1/2023 für 1 Mrd. $ gekauft haben. Stückzahl: 100'000 Chips - weil die Dinger für 10k pro Stück weggehen.
https://twitter.com/ruima/status/1670453343913746432

Gast
2023-06-19, 12:39:20
So wie man Nv aus der Vergangenheit kennt wird das in einem Crash enden. Die Gier ist in diesem Unternehmen grösser als der klare Verstand. Nämlich dann wenn AI ausläuft und das kann mit den massiven Beschränkungen die nun geplant umgesetzt werden, schneller gehen als einem lieb ist.

Nicht AI wird "auslaufen", Gaming ist schon längst "ausgelaufen".

Nvidia war lediglich smart genug, oder einfach nur glücklich, je nachdem wie man das sieht, das schon vor langer Zeit erkannt und die entsprechenden Investitionen getätigt zu haben.

amdfanuwe
2023-06-19, 12:52:18
AMD hingegen hat im ersten Quartal weltweit irgendwas zwischen 0,7-0,75 Mio. Desktop-Grafikchips verkauft,
Deine Rechnung geht nicht auf, da du die Lagerbestände bei den OEMs und Händlern nicht berücksichtigst.
AMD hat die letzten 3 Quartale immer betont, dass sie weniger in den Channel abgeben als die Händler verkaufen.

Gast
2023-06-19, 13:05:11
Dies bedeutet damit auch, dass nVidia kurzfristig höhere HPC/AI-Aufträge hat, als für was man Produktionskapazitäten organisieren kann, trotz der Übernahme aller bei TSMC noch freien 7nm/5nm-Kapazitäten.

Letzteres könnte eine Überinterpretation sein. Ist die Produktionskapazität bei diesen Wafern überhaupt der aktuell entscheidende Flaschenhals?

Es ist gut möglich, dass vor allem 7 nm substantiell unterausgelastet ist. Selbst für 5 nm ist dies nicht ohne Weiteres auszuschließen, schließlich wollte nVidia vor wenigen Monaten noch seine Bestellungen kürzen oder strecken.

Gast
2023-06-19, 13:48:45
So wie man Nv aus der Vergangenheit kennt wird das in einem Crash enden. Die Gier ist in diesem Unternehmen grösser als der klare Verstand. Nämlich dann wenn AI ausläuft und das kann mit den massiven Beschränkungen die nun geplant umgesetzt werden, schneller gehen als einem lieb ist.[...]
Und nur so, AMD wird's freuen, Konsolendeals für die Zukunft gesichert. Und weiterhin prägt man die Spieleentwicklung für die nächsten Jahre, was sich schon heute bemerkbar macht. Welcher Schmiede steckt noch grossen Aufwand in PC Ports? Keine...
Ich bezweifle, dass die Auflagen, welche die EU für KI plant, weltweit große Relevanz au den Markt haben. Alle anderen werden da ordentlich investieren.
Nur wird AMD sich da natürlich auch was vom Kuchen holen, dafür ist MI300 ja da (wohl deutlich mehr Fokus auf KI, vermutlich weniger Fokus auf FP64).
Bezüglich der Konsolen: Wer sagt denn, dass die nächste Konsolen Gen von AMD befeuert wird? NVidia wäre da mit einem ARM Chip durchaus auch denkbar (Grace-Basis?), ebenso Intel. Gerade jetzt ist der Konsolen Bereich für AMD durchaus eher schwierig, weil man hier auf einmal zwei potentielle Konkurrenten hat, die man früher nicht hatte.

Rabiata
2023-06-19, 13:50:22
Nicht AI wird "auslaufen", Gaming ist schon längst "ausgelaufen".

Nvidia war lediglich smart genug, oder einfach nur glücklich, je nachdem wie man das sieht, das schon vor langer Zeit erkannt und die entsprechenden Investitionen getätigt zu haben.
Gaming verliert an Fahrt, weil die Grafik zunehmend "gut genug" ist. Wann genau ist Geschmackssache - je nach persönlicher Vorliebe und Spielästhetik kann Half-Life 2 Niveau ausreichend sein. Und das kann halt auch eine alte Möhre.

KI hat sicherlich mehr Zukunft. Da ist höchstens die Frage, welche Architektur von Vorteil ist. AMD bringt demnächst die MI300, eine Art Mega-APU (für Compute, nicht Grafik). Falls die gut einschlägt, könnte es sein, daß Nividia eine Zeit lang hinterher hinkt bis sie ihr eigenes APU-Äquivalent haben.

Gast
2023-06-19, 13:57:12
Nicht AI wird "auslaufen", Gaming ist schon längst "ausgelaufen".

Nvidia war lediglich smart genug, oder einfach nur glücklich, je nachdem wie man das sieht, das schon vor langer Zeit erkannt und die entsprechenden Investitionen getätigt zu haben.
AI läuft aber nicht über Nvidia GPUs, das sind lediglich die Traningsdaten. Wenn das erst angelaufen ist, heißt angelernt und das NN genug gefüttert wurde
braucht man das alles nicht mehr. Nvidia bietet keine Hardware an, auf der AI letztlich läuft. Das stellen sie absolut unwahr dar.

Das läuft virtualisiert in Clouds auf CPUs oder ähnlicher Architektur, davon profitieren also eher Firmen wie Intel und AMD. Da hat Nvidia rein gar nichts. Zudem haben sie keinerlei Rechte etwas derartiges herzustellen. Sie liefern für das Trainingsmodell lediglich Beschleuniger. Wenn Zeit keine Rolle spielt, braucht man die auch nicht. AI braucht mit derzeitigem Stand nunmal CPU Cores und schnellen Speicher. Nichts davon bietet Nvidia an! Genau deshalb verbauen Intel und AMD jetzt AI Cores, oder x86 AI Cores in GPUs (siehe Sierra Forest oder MI300), die machen Nvidia irgendwann obsolet. Vor allem E Cores werden da das Rennen machen.

Nvidia verkauft nur wieder alle für blöd, weil Aktionäre einfach dumm sind und nur Gewinne im Kopf haben.

Gast
2023-06-19, 14:09:52
AI läuft aber nicht über Nvidia GPUs, das sind lediglich die Traningsdaten. Wenn das erst angelaufen ist, heißt angelernt und das NN genug gefüttert wurde
braucht man das alles nicht mehr. Nvidia bietet keine Hardware an, auf der AI letztlich läuft.


Wissen ist "unendlich", es wird immer wieder neue und bessere Modelle geben die man trainieren kann. Der Zeitpunkt an dem es keinen Bedarf mehr gibt neue Modelle zu trainieren ist noch überhaupt nicht absehbar und liegt in sehr ferner Zukunft, falls er überhaupt jemals erreicht wird.


Sie liefern für das Trainingsmodell lediglich Beschleuniger. Wenn Zeit keine Rolle spielt, braucht man die auch nicht. AI braucht mit derzeitigem Stand nunmal CPU Cores und schnellen Speicher. Nichts davon bietet Nvidia an!

Selbstverständlich bietet Nvidia CPU cores für genau diese Zwecke an, und sie haben dabei den Vorteil nicht die "x86-Krücke" mitschleppen zu müssen.

Intel und AMD sind bei CPUs nur deshalb so stark, weil es Unmengen an Legacy-Software gibt die nur auf ihren CPUs läuft.
Für AI gibt es keine Legacy-Software, die ist gerade erst im Entstehen damit haben AMD/Intel keinen inhärenten Vorteil.

Exxtreme
2023-06-19, 14:23:43
die "x86-Krücke"

Wobei das auch ein wildes Gerücht aus der Pentium Pro-Zeit ist.

Gast
2023-06-19, 15:22:01
Wobei das auch ein wildes Gerücht aus der Pentium Pro-Zeit ist.

Das ist kein wildes Gerücht, x86 Decoder sind um einiges aufwändiger und energieintensiver als jene für simplere instruction sets.

MicroOp-Caches können das zwar zu einem großen Teil kaschieren.
Das bedeutet aber auch wieder zusätzlichen Hardwareaufwand und selbst im besten Fall bleibt ein zusätzlicher Overhead, jede Instruktion muss mindestens 1x durch den Decoder, und bei jedem Miss ein weiteres mal.

G4st
2023-06-19, 19:29:52
AI läuft aber nicht über Nvidia GPUs, das sind lediglich die Traningsdaten. Wenn das erst angelaufen ist, heißt angelernt und das NN genug gefüttert wurde
braucht man das alles nicht mehr. Nvidia bietet keine Hardware an, auf der AI letztlich läuft.


Du irrst dich.

https://lambdalabs.com/hs-fs/hubfs/2.%20Images/Images%20-%20Blog%20Posts/2022%20-%20Blog%20Images/Screenshot-from-2022-10-04-23-00-00.png?width=850&height=205&name=Screenshot-from-2022-10-04-23-00-00.png
https://lambdalabs.com/blog/inference-benchmark-stable-diffusion


Sie liefern für das Trainingsmodell lediglich Beschleuniger. Wenn Zeit keine Rolle spielt, braucht man die auch nicht.


Es geht nicht nur um Zeit sondern auch um Stromkosten in Millionenhöhe. Deshalb benötigt man sowohl fürs Training als auch für Inference effiziente Hardware.


AI braucht mit derzeitigem Stand nunmal CPU Cores


CPUs kann man dafür auch nutzen sind aber ineffizient.

und schnellen Speicher.

Der schnellste Speicher wird in GPUs verbaut.

Gast
2023-06-19, 20:11:53
Das ist kein wildes Gerücht, x86 Decoder sind um einiges aufwändiger und energieintensiver als jene für simplere instruction sets.

MicroOp-Caches können das zwar zu einem großen Teil kaschieren.
Das bedeutet aber auch wieder zusätzlichen Hardwareaufwand und selbst im besten Fall bleibt ein zusätzlicher Overhead, jede Instruktion muss mindestens 1x durch den Decoder, und bei jedem Miss ein weiteres mal.
Im HPC Bereich wird für jeden Großrechner eine neue Software geschrieben. Trotzdem sind neun der zehn größten Rechner mit x86.
AMD und Intel haben eine ARM Lizenz, die sie nur nicht nutzen. Wenn ARM tatsächlich so überlegen wäre, würden sie das nutzen, nicht x86.
Insofern sehe ich das auch als wildes Gerücht.

Gast
2023-06-19, 21:47:33
Für AI gibt es keine Legacy-Software, die ist gerade erst im Entstehen damit haben AMD/Intel keinen inhärenten Vorteil.
???

Das läuft seit 2004 bereits völlig ohne NVidia. Die suchen sich fürs Marketing paar Buzzworter und alle sehen, oh Kohle, Aktien ja.

Technisch gesehen braucht NVidia niemand für KI/AI Inferencing.

Huang hat auch gequatscht, jeder müsste RT haben, alle sollen Minen, jeder müsste ins Omniverse sonst geht die Welt unter, alle Firmen die das nicht machen gehen Pleite und nun Quatsch er von AI weils gerade in ist. Nichts von dem was er prophezeit hat ist je eingetreten. Nichts von dem was er meinte braucht man wirklich.

AI läuft schon viel länger, lange bevor NVidia auf diesen Zug aufgesprungen ist. Die brauchen AI um ihre Waferverträge bei TSMC bedienen zu können. Da hat man sich nämlich reichlich verzockt was die Prozesse angeht. TSMC verlangt die Auslastung aller Kapazitäten die NVidia gebucht hat. Die sind schon mal von Verträgen abgesprungen was TSMC riesen Verluste einbrachte. Daher bekommen die keine Extrawurst mehr bei TSMC und genau deshalb faselt Huang von KI/AI.

Es geht nur darum seinen Verpflichtungen nachzukommen, weil TSMC denen nichts mehr einräumt. AMD bspw. hat die Möglichkeit die stinknormale Prozesse von TSMC in 5nm auf CPUs oder GPUs zu verteilen. NVidia mit N4 nicht...

Keine AI braucht NVidia.

Leonidas
2023-06-20, 05:08:36
Deine Rechnung geht nicht auf, da du die Lagerbestände bei den OEMs und Händlern nicht berücksichtigst.
AMD hat die letzten 3 Quartale immer betont, dass sie weniger in den Channel abgeben als die Händler verkaufen.

Das stimmt wohl. Aber da kann man Fehlbeträge Richtung 20-30% kalkulieren. Verändert etwas die ingesamte Zahl, aber nicht die grundsätzliche Größenordnung.



Letzteres könnte eine Überinterpretation sein. Ist die Produktionskapazität bei diesen Wafern überhaupt der aktuell entscheidende Flaschenhals?

Eigentlich nicht. Aber es gibt derzeit einen krassen Überbedarf. NV hatte kürzlich wirklich alle verfügbaren Restbestände für sich in Anspruch genommen. Mehr geht dann nur, wenn TSMC die Fertigungskapazität tatsächlich ausweitet.

Exxtreme
2023-06-20, 09:32:03
Das ist kein wildes Gerücht, x86 Decoder sind um einiges aufwändiger und energieintensiver als jene für simplere instruction sets.

MicroOp-Caches können das zwar zu einem großen Teil kaschieren.
Das bedeutet aber auch wieder zusätzlichen Hardwareaufwand und selbst im besten Fall bleibt ein zusätzlicher Overhead, jede Instruktion muss mindestens 1x durch den Decoder, und bei jedem Miss ein weiteres mal.

Das war aber auch nur beim Pentium Pro hier und da ein Thema weil der x86-Decoder relativ viel Platz gebraucht hat. Aber schon beim Pentium 2 hat sich niemand mehr darüber beschwert. Und so aufwändig ist der x86-Decoder auch nicht. Und x86 hat wiederum den Vorteil, dass es wie ein Code-Kompressor wirkt da x86 sehr kompakt ist. Das entlastet die Anbindung zum RAM und eventuell auch noch die Caches.

Gast
2023-06-20, 11:42:19
Das war aber auch nur beim Pentium Pro hier und da ein Thema weil der x86-Decoder relativ viel Platz gebraucht hat.

Das ist immer noch ein Thema, weniger wegen der Die-Size, aber weil es schrecklich ineffizient ist.

x86 Decoder sind reine Bruteforce, die parallel versuchen alle möglichen Befehle zu decodieren und dann die weiterverarbeiten bei denen was sinnvolles rauskommt und den Rest verwerfen.

Zen4 ist deshalb immer noch auf 4-wide beschränkt. Intel ist zwar mittlerweile bei 6x angelangt, bezahlt das aber auch mit schlechterer Effizienz.

Sowas wie Apple mit ihrer 8-wide Architektur wäre mit x86 nur mit deutlich höherem Energieverbrauch denkbar.

Und die minimalen Einsparungen der Instruction-Größe von x86 kann man bei einem Instuction-Set mit fixer Instruction-Länge ganz einfach durch größere Caches ausgleichen. Und das mit weniger Siliziumaufwand als man bei x86 betreiben muss um die teuren Decoder möglichst wenig zu verwenden.

anddill
2023-06-20, 12:27:24
Tja, mach das mal mit dem ganzen Legacy-Kram der so rummschwirrt. Stell Dir mal das Geschrei vor wenn die 16-Bit Anwendung von 1990 im Emulator auf 32Bit, dann auf 64-Bit Only-new-X86 auf einmal langsamer rennt als mit dem alten PC.

Am Ende wird man wenigstens 2 "Legacy-Cores" noch die nächsten 20 Jahre mitschleppen müssen.

Platos
2023-06-20, 12:29:18
Wer nutzt denn bitte 16 Bit Software ?

anddill
2023-06-20, 12:32:38
Wer nutzt denn bitte 16 Bit Software ?
hahaha... Träumer.
Ganze Firmen mit 3000 PC-Plätzen.

Gast
2023-06-20, 13:10:45
Und das mit weniger Siliziumaufwand als man bei x86 betreiben muss um die teuren Decoder möglichst wenig zu verwenden.
Wir sprechen hier hauptsächlich von Chatbots, die Text, Sprache und Visuelles verarbeiten können. Dafür reicht x86 alle male.

Tust du gerade so als sei AI in diesem Umfeld neu? Ist es absolut nicht und zu Hause hat niemand Nvidia Cores die mehr könnten.

Das Thema AI ist bisher eine völlige Blase, es wird so getan als stünden wir vor der Entscheidung den Terminator abzuschalten, weil er sonst die Welt vernichtet. Nichts von dem ist bisher allgemein geplant und wird es auch nie. Es geht um stinknormale automatisierte Sammlungen. Das hat mit AI soviel zu tun, wie in China jeden Moment ein rostiges Fahrrad umfällt. Das Thema wird grade von Nvidia nach ihrer Mining-Verlustzone künstlich aufgeblasen um damit Umsätze zu generieren. Es bleibt bei Chatbots dessen Einsatzspektrum mehr als begrenzt ist und die es früher auch schon gab.

Setze ein Pixel oder setze keins, suche den Text der zu der Anfrage passt, antworte akustisch auf eine Fragestellung, suche dazu in der Textdatenbank nach der richtigen Antwort. Und manchmal kommt da einfach nur blauer Dunst heraus. Dummes Zeug...

Sorry wer darin einen Meilenstein sieht, hat sie nicht mehr alle. Das Thema wird durch das Sillicon Valley genutzt um nach herben Verlusten das eigene Image aufzupolieren, um nicht den Zuspruch zu verlieren.

Wenn es um Logik AI geht, sind wir bspw. wie bei RT (Pathtracing) davon meilenweit entfernt. Das ist derzeit im Marketing einfach nur eine Gelddruckmaschine für Nvidia. Wird imho komplett überbewertet weil künstlich augeblasen, wie das gesamte Unternehmen und deren Aktienkurs. Aus allem, wird von denen ein Hype zu Gunsten des eigenen Unternehmens generiert, den man nie erfüllen kann und Jahrzehnte von verwertbaren Ergebnissen für jedermann entfernt ist.

Das ist genauso dummes Gequatsche wie dir ChatGTP antwortet. So was von spekulativ, wie nie etwas zuvor.

Nvidia verdient sich derzeit eher an A800 dumm und dämlich, weil China dieses Zeug zu Massen bestellt und man damit die Ausfuhrsperren des A100/H100 im USA AI Act gegen China umgeht. So eine tolle Firma ist Nvidia, wie gesagt für Geld scheinen die alles zu tun. Da werden schon mal die amerikanischen Interessen hintergangen. Man findet Schlupflöcher um seine Gewinne zu maximieren auf Kosten aller, ihrer Sicherheit usw., niemand weiß was China mit diesem Zeug treibt.

Sry - keinen Cent bekommen diese Zecken von mir. Möge Gaming den Bach runter gehen.

Gast
2023-06-20, 14:08:27
Und so aufwändig ist der x86-Decoder auch nicht.


Einer alleine ist es nicht. Will man aber hohen ILP ausnutzen braucht man mehrere parallele Decoder, und hier steigt der Aufwand mit jedem parallelen Decoder bei x86 exponentiell an.

Mit RISC steigt der Aufwand mit jedem Decoder nur linear an.

Platos
2023-06-20, 15:07:53
hahaha... Träumer.
Ganze Firmen mit 3000 PC-Plätzen.

Und die brauchen neueste CPUs ?

#44
2023-06-20, 15:12:52
Und die brauchen neueste CPUs ?
Wo kauft man denn alte - mit Garantie und Support, wenn mal ein PC ersetzt werden muss?

Die Frage ist aber tatsächlich, ob das ein relevanter Absatzmarkt ist. Insbesondere wenn man an anderer Stelle in der Breite Vorteile ggü. der Konkurrenz haben könnte.
Intel schielt ja bereits in die Richtung.

Platos
2023-06-20, 15:47:32
Ja gut, da hast du recht. Ersatzware geht dann nicht.

Aber mich würde da auch interessieren, wie gross da der Absatzmarkt wirklich ist. Also so mit Fakten und Zahlen.

Und wenn der Absatzmarkt wirklich so riesig ist, kann man ja einfach eine Fab auf ner alten Architektur laufen lassen und so halt dann diese Kundschaft weiterhin bedienen. Dann eben mit "alten" CPUs (also "alt" wären sie ja erst Jahre später. Die nächsten Intel-CPU Generationen sind ja noch alle x86).

Aber warum nicht gleich auf RISCV umsteigen? Wenn schon denn schon. Warum ARM nehmen, wo man lizenzen zahlen muss?

Rabiata
2023-06-24, 14:28:11
Wo kauft man denn alte - mit Garantie und Support, wenn mal ein PC ersetzt werden muss?
Bei andren Firmen, die gerade den alten Schrott rauswerfen? Am besten auch auf Vorrat, wer weiß wann es wieder welche zu kaufen gibt. Die Teile auf Ebay zusammenzukratzen wäre zu viel Aufwand.
Support wird die eigene IT leisten (müssen). Und sei es nur, die wirklich kaputten auszusondern und aus dem Lager zu ersetzen.

Aber generell ist es schon besser, die Software zu ersetzen. Ewig wird der Vorrat an Altmaterial nicht reichen.