Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 17. September 2024


Leonidas
2024-09-18, 08:44:01
Link zur News:
https://www.3dcenter.org/news/news-des-17-september-2024

Gast
2024-09-18, 09:08:09
Einzurechnen sind hierbei auch immer zwei gewichtige Punkte: Die Chipfertigung muß man teilweise sehr zeitig stoppen, denn von der Bestellung bis zum fertig verpackten Chip dauert es sicherlich zwei Monate.

Eher 6.

Aroas
2024-09-18, 10:10:54
Woher kommt eigentlich diese merkwürdige Obsession zu dieser blöden RTX 4070 DDR6?
Das Ding interessiert doch keine Sau.
Eine bessere RTX 4070 Super gibts schon für wenige Euro mehr.
Niemand, der des Preisvergleichs mächtig ist und über 500€ für eine GPU übrig hat, kauft eine RTX 4070.
Das Ding ist obsolet.

dildo4u
2024-09-18, 10:18:57
GDDR6 erlaubt das die Preise nach unten gehen, die 7700XT sah zum Launch überflüssig aus hat jetzt aber die beste Preis/Leistung.

AMD wird komplet neue GPU Produzieren die nur GDDR6 nutzen damit aggressive Preise möglich werden.

Gast
2024-09-18, 10:27:08
Denn unter Linux gibt es diesen Drittanbieter-Zugriff auf den Kernel nicht, damit sind AntiCheat-Programme mit Zugriff auf den Kernel nicht lauffähig, nicht portierbar und auch nicht emulierbar.

Linux ist frei, da kann jeder machen was er will, gleich einen komplett neuen Kernel mit integriertem Anticheat schreiben wenn er möchte.

Und Kernelmodule gibt es selbstverständlich auch.

Wenn Linux von aktuellen Spielen mit Kernel-Level Anticheat nicht unterstützt wird ist das ein nicht wollen, kein nicht können.

Aroas
2024-09-18, 10:51:25
GDDR6 erlaubt das die Preise nach unten gehen...
Dafür braucht es kein GDDR6. Das wäre auch mit GDDR6X möglich.
Allein NVidia will die Preise nicht senken.

Dass die 7700XT deutlich im Preis gesunken ist liegt lediglich daran, dass sie zum Launch eh viel zu teuer war und AMD Karten viel weniger nachgefragt werden und somit über den Weg der Preissenkung abgesetzt werden müssen.

Leonidas
2024-09-18, 11:41:30
Eher 6.

Das erscheint mir deutlich zu viel. Es geht hier nicht um einen Tape-Out, sondern um die reine Fertigung. Dauert ca. 1M, plus Validierung und Packaging samt Transport noch einen Monat hinzu.


Woher kommt eigentlich diese merkwürdige Obsession zu dieser blöden RTX 4070 DDR6?.

Es könnte damit mal eine 4070 unter 500 Ocken geben.

Gast
2024-09-18, 11:58:46
Woher kommt eigentlich diese merkwürdige Obsession zu dieser blöden RTX 4070 DDR6?
Das Ding interessiert doch keine Sau.
Eine bessere RTX 4070 Super gibts schon für wenige Euro mehr.
Niemand, der des Preisvergleichs mächtig ist und über 500€ für eine GPU übrig hat, kauft eine RTX 4070.
Das Ding ist obsolet.

Grafikkarte ist aber nicht gleich Grafikkarte. Bei der RTX 4070 gibt es um 530€ herum schon gute Custom Designs. Die Asus Dual soll hervorragend sein bzgl. Lautstärke und liegt bei 546€.
Bei der 4070 Super fängt die erste gescheite Graka bei 606€ an mit der PNY XLR8 (für mich zumindest). Die deutlich günstigeren 4070 Super Karten würde ich mir nicht antun wollen.

Melbourne, FL
2024-09-18, 12:41:53
Zum Auslaufen der RTX4090 kann ich was beitragen. Wir haben vor einer Woche Angebote für 8 Dual-Slot (Blower Kühler, umgebaut aus China) RTX4090 für unseren HPC Cluster eingeholt. Da meinte der Händler auch, dass die 4090 jetzt EOL geht. Hat mich damals gewundert aber jetzt nach der News nicht mehr.

Alexander

Gast
2024-09-18, 13:26:16
Das erscheint mir deutlich zu viel.


Vielleicht ein wenig aber sicher nicht viel. 2 Monate sind auf jeden Fall viel zu wenig.


Es geht hier nicht um einen Tape-Out, sondern um die reine Fertigung. Dauert ca. 1M, plus Validierung und Packaging samt Transport noch einen Monat hinzu.


Ein moderner Wafer mit 50+ Belichtungsschritten ist locker 3 Monate in der Fab von der ersten bis zur letzten Belichtung.

1-2 Monate kann man dann auf jeden Fall noch fürs Packaging/Binning draufrechnen.

Aroas
2024-09-18, 13:36:41
Es könnte damit mal eine 4070 unter 500 Ocken geben.

Hätte, würde, könnte...

Tut es aber bisher nicht und wenn NVidia sich nicht plötzlich um 180 Grad dreht, was ihre Preispolitik angeht, wird das auch so schnell nicht passieren.
Also wozu diese ständige Berichterstattung über diese belanglose Speicheranpassung bei dieser Karte?

Lehdro
2024-09-18, 13:42:53
Also wozu diese ständige Berichterstattung über diese belanglose Speicheranpassung bei dieser Karte?
Ich finde eine Spezifikationsminderung bei selben Namen & Preis nicht gerade belanglos. :confused:

Exxtreme
2024-09-18, 13:57:01
Hätte, würde, könnte...

Tut es aber bisher nicht und wenn NVidia sich nicht plötzlich um 180 Grad dreht, was ihre Preispolitik angeht, wird das auch so schnell nicht passieren.
Also wozu diese ständige Berichterstattung über diese belanglose Speicheranpassung bei dieser Karte?

Weil man für den gleichen Preis eine schlechtere Karte bekommt?

madshi
2024-09-18, 14:05:16
Viel beachtet wird derzeit eine Aussage von nVidia-CEO Jensen Huang zur KI-Nutzung unter Spielen – gern auch mit der Schlagzeile versehen, dass es ohne dies nicht mehr geht. Dies entspricht zwar der auf Seeking Alpha (via PC Games Hardware nachzuschlagenden Original-Aussage, das "wir" bezieht sich in diesem Augenblick allerdings nicht auf die Spiele-Industrie, sondern nur nVidia selber – und nVidia ist wie bekannt kein Spiele-Entwickler. Was nVidia somit intern veranstaltet, mag technologisch herausragend sein, hat aber noch keinerlei Praxis-Relevanz für die Spiele-Industrie, wo die Ansätze zur KI-Mitarbeit bei der Spieleentwicklung sowie Spieldarstellung derzeit eher zaghaft sind. Sicherlich ist DLSS inzwischen KI-unterstützt, aber das betrifft nur das Training bei nVidia, nicht die Hardware der PC-Spieler. Sicherlich helfen KI-Tools bei der Spiele- bzw. der Asset-Entwicklung, aber noch hat dies keinen großen Einfluß auf die Gesamtbild
Jensen redet hier ganz klar über DLSS (und nichts anderes!) und wie es intern genau funktioniert. Natürlich wurde DLSS via KI-Hardware trainiert. Aber (wenn ich mich nicht irre) wird DLSS auf dem Consumer PC auch größtenteils auf den Tensor-Cores der GPUs ausgeführt, also wiederum via KI-Hardware. Es betrifft also sehr wohl auch die Hardware der PC-Spieler.

Leonidas
2024-09-18, 14:35:51
In diesem Fall ergibt sich die Frage: Wo kreiiert DLSS bis zu 32 Pixel aus einem gerenderten? Der maximale Modus ergibt derzeit die 9fache Pixelmenge, ergo 8 halluzinierte Pixel (nicht 32).

Gast
2024-09-18, 15:06:14
In diesem Fall ergibt sich die Frage: Wo kreiiert DLSS bis zu 32 Pixel aus einem gerenderten? Der maximale Modus ergibt derzeit die 9fache Pixelmenge, ergo 8 halluzinierte Pixel (nicht 32).

9x x2 durch FG + wahrscheinlich noch ein wenig kreative Mathematik mit RR.

bad_sign
2024-09-18, 17:25:44
du meinst bestimmt "CEO math, it's not accurate but it is correct" :D

Aroas
2024-09-18, 17:40:05
Weil man für den gleichen Preis eine schlechtere Karte bekommt?

Der Leistungsunterschied liegt im Bereich der Messungenauigkeit. Dafür ist die GDDR6 Version offenbar auch ein paar wenige Euro günstiger.

Und das ist alles zu dieser Kartenversion, was es zu sagen gibt.
Da muss man nicht gefühlt jeden zweiten Tag wieder eine "News" zu Verfügbarkeit und Preis dieser Dinger bringen.

Gast
2024-09-18, 18:06:18
In diesem Fall ergibt sich die Frage: Wo kreiiert DLSS bis zu 32 Pixel aus einem gerenderten?


Ich würde mal sagen, das ist ein Hint auf erweiterte FG in kommender Hardware.

Bei Ada hat man von 8 Pixel für einen berechneten gesprochen, 2x2 von DLSS-Performance und noch x2 für FG.

Ich würde erwarten, dass wir mehr berechnete Frames mit FG bekommen werden.

crnkoj
2024-09-18, 18:33:16
Das wäre toll wenn windows die Kernel seitigen anti cheat Programe blockiert. Dann könnte man wirklich völlig frei von ms leben!
Aktuell habe ich einen zweiten PC nur um lol drauf zu spielen, wegen der invasiven vanguard.

downforze
2024-09-18, 20:06:46
Eine lächerliche Preisersparnis. Eine absolute Zumutung ist es auch, dass eine Karte der unteren Mittelklasse immer noch nicht unter 550€ zu bekommen ist.
Wenn man über 500€ ausgibt, kauft man eine 4070 S. Die gibt es ab 580€.

drkohler
2024-09-18, 20:06:46
Das erscheint mir deutlich zu viel. Es geht hier nicht um einen Tape-Out, sondern um die reine Fertigung. Dauert ca. 1M, plus Validierung und Packaging samt Transport noch einen Monat hinzu.

Da habe ich etwass Verständnisprobleme...

Wenn ich die Fertigung von A nach B wechsle, dauert es so lange wie die Bestückungsautomaten brauchen um umzuprogrammiert zu werden (wenn das Pinout von gddr6x und gddr6 verschieden ist). Alles was ich unter den Bestückungsutomaten lege kann ich ja vorfabrizieren während die alte Fertigung ausläuft. Somit sollte es 1-2? Tage dauern für einen Wechsel.

Wenn ich gleichzeitig Beides fertige, brauche ich eine zweite Linie. Also wenn ich das vorher weiss, startet die neue Linie einfach wenn das Material da ist. Wenn ich nur eine Linie habe, gibt's natürlich Probleme bei jedem Wechsel.

Gast
2024-09-18, 20:24:13
Da habe ich etwass Verständnisprobleme...


Hier geht´s nicht um GDDR6 vs. GDDR6X sondern um die Ablösung von RTX 4xxx durch RTX 5xxx.

Und es geht nicht um die Bestückung der Platinen, sondern um die Fertigung der DIEs (inklusive Packaging).

Zossel
2024-09-18, 21:17:43
Da habe ich etwass Verständnisprobleme...

Wenn ich die Fertigung von A nach B wechsle, dauert es so lange wie die Bestückungsautomaten brauchen um umzuprogrammiert zu werden (wenn das Pinout von gddr6x und gddr6 verschieden ist). Alles was ich unter den Bestückungsutomaten lege kann ich ja vorfabrizieren während die alte Fertigung ausläuft. Somit sollte es 1-2? Tage dauern für einen Wechsel.

Wenn ich gleichzeitig Beides fertige, brauche ich eine zweite Linie. Also wenn ich das vorher weiss, startet die neue Linie einfach wenn das Material da ist. Wenn ich nur eine Linie habe, gibt's natürlich Probleme bei jedem Wechsel.

Wenn die Bestückungsautomaten die Bauteile für beide Karten in den Feedern haben könnte theoretisch abwechselnd Karte A und Karte B vom selben Automaten bestückt werden.

Leonidas
2024-09-19, 06:46:59
9x x2 durch FG + wahrscheinlich noch ein wenig kreative Mathematik mit RR.

Ich denke mal eher: DLSS auf Performance mit 4xFG. Sind 8x4 erfundene Pixel = 32. Danke, dass Du mich auf den Gedanken gebracht hast. DLSS4 mit doppelter FG bestätigt!

PS: Wie es ein Gast schon schrieb (hatte die Idee unabhängig davon).



Da habe ich etwass Verständnisprobleme...
Wenn ich die Fertigung von A nach B wechsle ...

Ich kann das von Dir gesagte leider nicht einordnen. Wir redeten darüber, wie lange ein Chip bei TSMC braucht, von der Order bis zum Transport zum Graka-Hersteller nach Test/Packaging. Kein neuer Chip, sondern eine bekannte Produktionslinie, die reine Fertigungs/Test/Packaging-Zeit.

Zossel
2024-09-19, 09:15:17
Ich kann das von Dir gesagte leider nicht einordnen. Wir redeten darüber, wie lange ein Chip bei TSMC braucht, von der Order bis zum Transport zum Graka-Hersteller nach Test/Packaging. Kein neuer Chip, sondern eine bekannte Produktionslinie, die reine Fertigungs/Test/Packaging-Zeit.

Er redet von sowas: https://www.youtube.com/watch?v=5XMKz7mWRIQ

Allerdings sind die Mengen/Zeit die man von bestimmten Produkten bei TSMC über die Bänder laufen lässt durchaus variabel. Der Hebel dafür kennt mehr Stellungen als Start und Stop.

Altehardware
2024-09-19, 09:58:14
Eine Fabrik Produziert in etwa 83000 wafer im Monat es sind etwa 115 Maschinen vorhanden
Ein Monat hat 720 Stunden Folglich braucht ein wafer 1 std
Die Maske ist es die Deutlich länger braucht obwohl man nur 830m² linse ist

Das was kommen wird bei gpu sind gestapelte alu die ab N2/a18 node ich gehe aber eher von Si und alu getrennt wird wo dann n6 +a18 node in ner tsmc 3d fabric produziert werden
Dann würde ein 512bit Si mit etwa 768sm sm geben und ein chip mit 256bit und 384sm
Darunter wär möglich ist aber verglichen zur Konkurrenz (apu) unsinnig.
Das bedeutet das ab rtx70 es keine mid class und low end mehr geben kann.
Ein gr202 grob um die 440$ ein gr203 grob 240$
Derzeit ad102 188$

Zu blackwell die Letzte monolithischen dgpu wird es auch einen refresh als mcm in n2 geben erste gen von 3d chips dann sind es 512bit 432sm/384sm und 256bit 216sm/192sm
bei grob gb303 136$ gb302 173$
Sofern nvidia nicht gb305 baut in samsung sf3 node wovon ich nicht ausgehe wird es keine rtx6070 und darunter geben
Womit die rtx5070 5060 die letzte mid low end dgpu von nvidia werden.
Darum auch die unsinnigen aussagen von dlss Fokus und mehr FG da die rtx5070 maximal +10% sind und fasst dasselbe kosten wird.


Warum steigt nvidia aus den consumer markt aus das liegt an den chipkosten es ist nicht möglich in n2 unter 100$ zu kommen mit einen si das größer als 128bit ist (126mm² +alu 123mm²)
96bit oder 64bit würden die Bandbreite massiv senken.
Wo dann 96sm (80tf) auf 384gb/s/256gb/s treffen das macht kein Sinn
Weiterhin Monolithen zu bauen lohnt nicht da die wafer zu teuer sind und das Si erst bei a18 node halbiert werden kann dann monolithische a18 node chips zu bauen ist teuer Ein wafer min 35000$
50% Si auch wenn es 256bit ist kostet so ein chip (240mm²) dennoch min 150$ Die folge entweder alte design weiterproduzieren bis zum ad104 und neue sku bringen die einzige option. Bis apu dann den markt übernehmen.
Der Takt Weg ist keine option den dafür muss das SI kleiner werden und dann limitiert die Bandbreite

madshi
2024-09-19, 10:44:40
Ich denke mal eher: DLSS auf Performance mit 4xFG. Sind 8x4 erfundene Pixel = 32. Danke, dass Du mich auf den Gedanken gebracht hast. DLSS4 mit doppelter FG bestätigt!

PS: Wie es ein Gast schon schrieb (hatte die Idee unabhängig davon).
Wissen wir denn, daß FG wirklich Tensor-Cores (= AI) verwendet? Ich bin mir ziemlich sicher, daß der Nvidia "Optical Flow" Hardware-Circuit (keine Tensor-Cores) dafür verwendet wird, Motion Vektoren zu ermitteln, zusätzlich zu den von der Game-Engine angelieferten Motion Vektoren. Und ich dachte eigentlich, daß dann die FG selbst ohne AI ausgeführt wird? Siehe auch hier:

https://developer.nvidia.com/optical-flow-sdk

In dem Projekt werden keine Tensor-Cores verwendet.

Meine Vermutung wäre eher gewesen, daß die 32 Pixel von Ray Reconstruction + DLSS kommen, nicht von FG?

Gast
2024-09-19, 11:06:04
Wissen wir denn, daß FG wirklich Tensor-Cores (= AI) verwendet?


Ja


Ich bin mir ziemlich sicher, daß der Nvidia "Optical Flow" Hardware-Circuit (keine Tensor-Cores) dafür verwendet wird, Motion Vektoren zu ermitteln, zusätzlich zu den von der Game-Engine angelieferten Motion Vektoren.


Optical Flow korrigiert die von der Engine gelieferten Motion Vektoren. Die Motion-Vektoren sind dann Input für die FG, welche auf den Tensorcores läuft.

Gast
2024-09-19, 11:13:20
Wissen wir denn, daß FG wirklich Tensor-Cores (= AI) verwendet? Ich bin mir ziemlich sicher, daß der Nvidia "Optical Flow" Hardware-Circuit (keine Tensor-Cores) dafür verwendet wird, Motion Vektoren zu ermitteln, zusätzlich zu den von der Game-Engine angelieferten Motion Vektoren. Und ich dachte eigentlich, daß dann die FG selbst ohne AI ausgeführt wird? Siehe auch hier:

https://developer.nvidia.com/optical-flow-sdk

In dem Projekt werden keine Tensor-Cores verwendet.

Meine Vermutung wäre eher gewesen, daß die 32 Pixel von Ray Reconstruction + DLSS kommen, nicht von FG?
Uiii. Dies ist ja der echte Mensch hinter madshi.
Hallo und danke für madVR.
Den einen Bug den ich mal gemeldet haben, haben Sie übrigens bis heute nicht behoben. (Ist für mich i.O. kein gravierender Bug)
:D

Also laut offizielle Erklärungen und Marketing: Ja; jedenfalls seit Version 3 von DLSS und FG.
https://www.nvidia.com/en-us/geforce/news/gfecnt/20229/dlss3-ai-powered-neural-graphics-innovations/
DLSS 3 is powered by the new fourth-generation Tensor Cores and Optical Flow Accelerator [...] The DLSS Frame Generation convolutional autoencoder takes 4 inputs – current and prior game frames, an optical flow field generated by Ada’s Optical Flow Accelerator, and game engine data such as motion vectors and depth. Ada’s Optical Flow Accelerator analyzes two sequential in-game frames and calculates an optical flow field.



Auch bei "RIFE AI" (Real-Time Intermediate Flow Estimation for Video Frame Interpolation), was ja Machinelles Lernen verwendet (neuronale Netze. Dieser "AI" Marketingbegriff wird ja überall hin-und-her-geworfen. Es gibt keine AI, nur ML), sind die TensorRT-Kerne und die Optical Flow Acceleratoren, für die "Video Frame Interpolation", in Verwendung.

Kann man auch selber ermitteln, indem man den "NVIDIA Visual Profiler" oder "Deep Learning Profiler" verwendet.
Da sieht man wie jene Tensor-Kerne ausgelastet sind und wann das Video dann anfängt zu ruckeln (obwohl die eigentliche GPU weit davon entfernt ist 100 % ausgelastet zu sein oder das Stromlimit ausgeschöpft ist).

madshi
2024-09-19, 16:19:15
Optical Flow korrigiert die von der Engine gelieferten Motion Vektoren. Die Motion-Vektoren sind dann Input für die FG, welche auf den Tensorcores läuft.
Also laut offizielle Erklärungen und Marketing: Ja; jedenfalls seit Version 3 von DLSS und FG.
https://www.nvidia.com/en-us/geforce/news/gfecnt/20229/dlss3-ai-powered-neural-graphics-innovations/
Ok, cool, danke für die Info.

Uiii. Dies ist ja der echte Mensch hinter madshi.
Hallo und danke für madVR.
Den einen Bug den ich mal gemeldet haben, haben Sie übrigens bis heute nicht behoben. (Ist für mich i.O. kein gravierender Bug)
:D
Hehe, gerne. Kannst mich auch duzen. Was für ein Bug denn?

Auch bei "RIFE AI" (Real-Time Intermediate Flow Estimation for Video Frame Interpolation), was ja Machinelles Lernen verwendet (neuronale Netze. Dieser "AI" Marketingbegriff wird ja überall hin-und-her-geworfen. Es gibt keine AI, nur ML), sind die TensorRT-Kerne und die Optical Flow Acceleratoren, für die "Video Frame Interpolation", in Verwendung.
RIFE verwendet ausschließlich neuronale Netze, es verwendet nicht den Nvidia Optical Flow Hardware Circuit. Im Vergleich dazu verwendet Nvidia FRUC ausschließlich die Nvidia Optical Flow Hardware Circuits und "konventionelle" Algos, aber keine neuronalen Netze. DLSS scheint beides zu kombinieren, wobei DLSS scheinbar neuronale Netze *nicht* für die Erstellung des Optical Flows verwendet, was das ganze dann wahrscheinlich deutlich schneller macht als RIFE, weil RIFE den Optical Flow quasi implizit als Teil des neuronalen Netzwerks berechnet, was relativ "teuer" ist, weil die neuronalen Netze dafür entsprechend größer sein müssen.