PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 27. Dezember 2023


Leonidas
2023-12-28, 05:13:36
Link zur News:
https://www.3dcenter.org/news/news-des-27-dezember-2023

Gast
2023-12-28, 10:59:01
Hierbei will man für einzelne Stücke Silizium zur Mitte der Dekade bei mehr als 100 Mrd. Transistoren stehen (nVidia GH100: 80 Mrd. Transistoren), zum Ende der Dekade dann bei 200 Milliarden.

Ich bin mir nicht Sicher ob es die Intention dieser News war auf ein Abschwächen des Transistorenwachstums hinzudeuten, die Formulierung liest sich jedenfalls so.

Die Grafik zeigt jedenfalls eindeutig das Gegenteil, ein ungebremstes lineares Wachstum (wohl auf einer nicht vorhandenen logarithmischen Skala) der monolithischen Chips, die dann von den 3D-Packaging verfahren noch mal um den Faktor 5 übertroffen werden.

Generell ist die Grafik ein ziemlich nichtssagendes Stück Marketing die schon fast an Apple Niveau rankommt. Und TSMCs Interesse als Hersteller ist es natürlich einen ständigen Fortschritt zu zeigen, genauso wie Intel immer das Moores Law is not dead bemüht.

Auf jeden Fall deutet die Grafik darauf hin, dass das Consumersegment weiterhin weitestgehend monolithisch unterwegs sein wird, 3D-Packaging für sowas: https://www.youtube.com/watch?v=7V87NhZxDh8
Also für Produkte mit 5 oder gar 6 stelligen Preisen.

Gast
2023-12-28, 11:08:45
"die angesetzten Preise sind kaum wertbar, da Schweiz-typisch sehr hoch".
In der Schweiz ist vieles teurer aber das gilt (eben) nicht wirklich für Elektronik. Da sind GPU Preis absolut vergleichbar, wenn nicht sogar günstiger als bei uns. Das liegt am starken CHF und der deutlich niedrigeren Mwst.
Eine RTX 4070 gibt es da aktuell für 501.80 CHF.....

Aroas
2023-12-28, 12:16:21
Also letztlich fast 1000€ um bei NVidia mal eine 16GB Karte zu bekommen, die nicht anderweitig beschnitten ist...
Wow!

Ich warte ja nur auf die vielen Gebrauchtverkäufe von 4070(Ti) Karten in den nächsten zwei Jahren, wenn deren Nutzer begreifen, dass kein DLSS und kein FG fehlenden Speicher ersetzen kann.
Wenn ich Spieletests sehe bei denen schon in FullHD Auflösung 8GB Speicher zu wenig sind, dann kaufe ich mir doch nicht freudig für 600-900€ eine 12GB Karte.
Diese Speichermenge ist bis 400€ noch ok. Aber alles darüber muss heute zwingend mind. 16GB haben. Ansonsten ist es einfach Murks.

Gast
2023-12-28, 12:21:57
Also letztlich fast 1000€ um bei NVidia mal eine 16GB Karte zu bekommen, die nicht anderweitig beschnitten ist...
Wow!

Ich warte ja nur auf die vielen Gebrauchtverkäufe von 4070(Ti) Karten in den nächsten zwei Jahren, wenn deren Nutzer begreifen, dass kein DLSS und kein FG fehlenden Speicher ersetzen kann.
Wenn ich Spieletests sehe bei denen schon in FullHD Auflösung 8GB Speicher zu wenig sind, dann kaufe ich mir doch nicht freudig für 600-900€ eine 12GB Karte.
Diese Speichermenge ist bis 400€ noch ok. Aber alles darüber muss heute zwingend mind. 16GB haben. Ansonsten ist es einfach Murks.

Ja, dann wart mal. In 2 Jahren heisst es dann, dass 12 GB zu wenig sind und du meckerst wieder, dass 16 GB Karten viel zu teuer sind. Blablabla

Platos
2023-12-28, 12:39:56
"die angesetzten Preise sind kaum wertbar, da Schweiz-typisch sehr hoch".
In der Schweiz ist vieles teurer aber das gilt (eben) nicht wirklich für Elektronik. Da sind GPU Preis absolut vergleichbar, wenn nicht sogar günstiger als bei uns. Das liegt am starken CHF und der deutlich niedrigeren Mwst.
Eine RTX 4070 gibt es da aktuell für 501.80 CHF.....

Es geht um Vorablistungen und da sind die Preise auch bzw. besonders in der Schweiz oft sehr hoch.

Oder anders gesagt: Wie bei allen Vorabpreisen, sind auch diese zu 100% wertlos für eine Preiseinschätzung.

Leonidas
2023-12-28, 14:10:01
Ich bin mir nicht Sicher ob es die Intention dieser News war auf ein Abschwächen des Transistorenwachstums hinzudeuten, die Formulierung liest sich jedenfalls so.

Nein, was nicht angedacht. Wenn es anders herauskommt, bitte ich um Nachsicht.



Generell ist die Grafik ein ziemlich nichtssagendes Stück Marketing die schon fast an Apple Niveau rankommt. Und TSMCs Interesse als Hersteller ist es natürlich einen ständigen Fortschritt zu zeigen, genauso wie Intel immer das Moores Law is not dead bemüht.

Sehe ich genauso. Primär Werbung, was für tolle Dinge TSMC alles kann.

Aroas
2023-12-28, 14:47:30
Ja, dann wart mal. In 2 Jahren heisst es dann, dass 12 GB zu wenig sind und du meckerst wieder, dass 16 GB Karten viel zu teuer sind. Blablabla

16GB Karten sind bei NVidia jetzt schon viel zu teuer. Da muss ich nicht noch zwei Jahre warten um das zu monieren.
Bei AMD bekommt man 16GB bereits im 500€ Bereich. Das passt.

12GB sind heute schon in manchem Spiel mit höchsten Einstellungen selbst in WQHD schon sehr knapp. Da muss man noch nicht einmal 4K einstellen.

Der Punkt ist, dass der Speicher am Gesamtpreis der Karten einen ziemlich geringen Anteil hat. Aus diesem Grund ist es schlicht eine absolute Frechheit seitens NVidia, Karten für 600€ oder gar 900€ lediglich mit 12GB auszustatten.
Die machen das absichtlich so, damit der Kunde möglichst bald wieder auf eine neue Karte mit mehr Speicher umsatteln muss, sofern er nicht auf entsprechend speicherlastige Einstellungen verzichten bzw. diese verringern will.
Dass diese Masche von so vielen Käufern nicht erkannt wird und sie sich lieber auf DLSS und FG einen abhobeln und das total super finden, ist schlimm.
So kann NVidia dieses miese Spiel seit Jahren treiben und den Leuten die Kohle aus der Tasche ziehen.

Leonidas
2023-12-28, 17:02:44
Wo ist die Kunst, den Grafikkarten mehr als notwendig Speicher mitzugeben, damit jene langjährig nutzbare Investitionsgüter sein können? Wie 8 GB auf einer Radeon RX 470.

Gast
2023-12-28, 17:56:56
Die R9 390X 8GB hatte bereits 8GB im Jahr 2015! und war/ist die langlebigste Grafikkarte aller Zeiten.

Ex3cut3r
2023-12-28, 20:46:14
12GB sind heute schon in manchem Spiel mit höchsten Einstellungen selbst in WQHD schon sehr knapp. Da muss man noch nicht einmal 4K einstellen.



Hast du dafür auch mal Quellen? Oder einfach nur eine weitere "Stammtisch Parole" raushauen?

Ich sehe davon nichts!

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13317617&postcount=587

Duran05
2023-12-28, 20:54:09
Die R9 390X 8GB hatte bereits 8GB im Jahr 2015! und war/ist die langlebigste Grafikkarte aller Zeiten.

Es gab auch die 290X mit 8 GB und die reicht heute noch für Spiele wie AoE, Diablo und ähnliches aus.
Die Nachteile die man in der Performance hatte haben sich in all den Jahren dann schlicht aufgelöst durch das mehr an Speicher.

Also letztlich fast 1000€ um bei NVidia mal eine 16GB Karte zu bekommen, die nicht anderweitig beschnitten ist...
Wow!

Keiner muss Nvidia kaufen. Auch Gamer nicht.
Sehe da keinen Sinn drin. 20 GB bekommst du zur Zeit ab 789 Euro.
Löst euch endlich vom Herstellergedanken, es hat sowieso keinen Zweck.
Manchmal vermisse ich SLI/Crossfire, das wäre jetzt in der Zeit genau richtig. Einfach mal boosten bis was neues kommt.

Wenn wir noch weiter zurück gehen, früher hatte jeder n billigen Grafikchip und ne Voodoo oder TNT im Rechner. Die schließen sich ja nicht aus. ;)

iamthebear
2023-12-28, 21:37:09
Generell ist die Grafik ein ziemlich nichtssagendes Stück Marketing die schon fast an Apple Niveau rankommt.

Ich würde da auch nicht so viel hinein interpretieren:
.) H100 ist wenn man von HBM absieht monolithisch
.) Für 2022 sind 20-50 Mrd. eingezeichnet. Real sind 76 Mrd. für AD102
.) Die 100 Mrd. bei N3 dürften z.B. für GB202 gut hinkommen.
.) Ab dann wird es etwas abenteuerlich denn:
N2 hat kaum mehr Density als N3
Bei A10 halbiert sich die reticle size. Da müsste sich schon die Density ver 4 fachen. Gut vom Namen her würde das passen aber ich denke wir wissen alle, dass das real nichtso passieren wird.

Ich denke in der Praxis können wir froh sein wenn wir bei 10A überhaupt noch 100 Mrd. dies raus bekommen und sich der Preis/Transistor nicht erhöht.

iamthebear
2023-12-29, 00:54:50
Keiner muss Nvidia kaufen. Auch Gamer nicht.
Sehe da keinen Sinn drin. 20 GB bekommst du zur Zeit ab 789 Euro.Löst euch endlich vom Herstellergedanken, es hat sowieso keinen Zweck.

VRAM ist halt nicht nur das alleinige Entscheidungskriterium.

Ich versuche den Hardwarekauf möglichst objektiv zu betrachten und hatte in den letzten 20 Jahren schon einiges im Rechner (Nvidia, dann 2x ATI, dann 3x Nvidia und jetzt wieder AMD) und sowohl Nvidia als auch AMD haben ihre Vor- und Nachteile.

Bei AMD hat man etwas mehr VRAM und in den Regel etwas günstigere Preise. Dafür hinkt AMD bei den Features immer etwas hinten nach und man muss sich im Schnitt öfter mit der einen oder anderen Spinnerei herum ärgern. Derzeit ist RDNA3 auch was den Energiebedarf angeht deutlich hinten nach (RDNA2 vs. Ampere war noch umgekehrt).

Manchmal vermisse ich SLI/Crossfire, das wäre jetzt in der Zeit genau richtig. Einfach mal boosten bis was neues kommt.

Also ich bin froh, dass SLI/Crossfire endlich Geschichte sind:
a) Das macht das VRAM Problem ja noch schlimmer. Dann hast du zwei 4070 Ti im Rechner und hast effektiv 12GB und dabei 1800 Euro ausgegeben. Glückwunsch ;D
b) SLI/Crossfire waren damals nur so toll, weil damals niemand die 1% Lows und den Input Lag gemessen hat.

Das Ganze hat damals schon nur Sinn gemacht wenn man sich Modelle vom größten Die in den Rechner geklatscht hat. Meine GTX 295 (Dual GPU) gab es damals 1 Woche nach Release um 400 Euro. Heute ist mir eine 4090 um 1500 Euro schon zu teuer. Da will ich sicher nicht noch eine zweite haben.

Wenn wir noch weiter zurück gehen, früher hatte jeder n billigen Grafikchip und ne Voodoo oder TNT im Rechner. Die schließen sich ja nicht aus. ;)

Ich frage mich von welcher Firma die Riva TNT wohl war :uponder: