PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 10. April 2025


Leonidas
2025-04-11, 07:10:10
Link zur News:
https://www.3dcenter.org/news/news-des-10-april-2025

Hochzeit2
2025-04-11, 11:11:27
Schaut man sich die Differenz von 5070 zur 4070 an (was super schwachwar), wäre das hier eine zusätzliche riesige Enttäuschung.

Leonidas
2025-04-11, 11:21:01
4060Ti zu 5060Ti wird voraussichtlich weniger als 4070 zu 5070.

Platos
2025-04-11, 20:28:56
Man muss sich darauf einstellen, dass es selbst für Leute, die sonst jede Generation umgestiegen sind, nur noch alle 2 Generationen der Fall ist.

Bei Leuten, die sonst alle 2 Generationen upgraden, wird es entsprechend alle 3-4 Generationen sein und bei Leuten, die sonst alle 3 Generationen upgraden, wird es wohl mindesten 4 Generationen sein.

So in etwa würde ich das einschätzen. Es dürfte aber auch vermehrt Leute geben, die einfach jede Generation neu kaufen, da die Grafikkarten ja kaum an Wert verlieren (da kann man auch mit weniger Verluste upgraden).

Leonidas
2025-04-12, 03:32:24
Bin ja gespannt, ob NV somit plant, für die Nachfolge-Gen mal wieder wirklich auf die Kacke zu hauen. Scheint notwendig zu sein.

Platos
2025-04-12, 07:55:36
Das glaube ich kaum. Der einzige Grund, warum das passieren sollte ist der, dass AMD oder Intel (endlich) auf Augenhöhe sind und dann Preiskrieg anfangen. Oder wenigstens überhaupt einen Preiskrieg anfangen (und damit meine ich nicht das Motto "wir sind hald schlechter, deswegen kriegst du unseren Scheiss 10% billiger".

Nvidia ist das neue Intel (CPU) zu damaligen Zeiten, nur schlimmer. Ohne ein "AMD-Zen" gibts auch keine Änderung. Angeblich soll ja RDNA5 dieser Zen-Moment sein, aber ich stelle immer noch die Frage in den Raum, auf was das bezogen ist: Meint man damit nur das Chiplet-Design (also dass sie billig skalieren können) oder eben das, was wir uns von dieser Aussage wünsche? Ja, sie haben jetzt ja schon keine Monolithen, aber der GPU Anteil ist ja weiterhin nicht ein Chiplet. Und ja, RDNA5 soll ja nicht mehr so heissen, ich weiss.

Leonidas
2025-04-12, 09:29:46
Also aus Verkaufssicht hast Du Recht: NV brauch keine nachfolgende Spitzen-Gen, die würden auch mit Intels Salami-Taktik weiter gut fahren. Nur um das Abrutschen in der Nutzer-Gunst zu verhindern, wäre ein Kracher besser. Will NV wirklich die Fehler (und das Scheitern) von Intel wiederholen? Sicherlich, ohne Zen würde Intel auch jetzt noch mit dem xten Skylake-Refresh gut verdienen.

Platos
2025-04-12, 13:01:32
Das "Problem" ist eben, dass nvidia schon extrem abliefert, nur eben nicht im Gaming und das macht ja mittlerweile kaum noch was aus.

Ein weiterer Unterschied ist der, dass nvidia technologisch auch wirklich abliefert, es jedoch so teuer verkauft, dass es aus Sicht des P/L eben wieder das genaue Gegenteil ist (also ok, Blackwell wurde nicht effizienter usw. aber das hängt ja immer auch an der Fertigung). Nvidia könnte mit einem Schnipser diese Generation relativ gut aussehen lassen, sie müssten nur die Preise senken. Bei Intel gabs damals jedoch kaum fortschritte bei irgendwas. Bei CPUs kommt es hald schon deutlich mehr auf IPC an, wie bei Grafikkarten, die man einfach hochskalieren kann. Da kann man somit preislich auch viel einfacher reagieren, falls dann doch mal der Konkurrent was liefert.

Aus diesen Gründen sehe ich es deutlich schwieriger im GPU-Markt, als im CPU-Markt. Damals konnte man "einfach" die Kernanzahl hochschrauben. Heute ist das (für Gamer) kaum mehr ein Argument. CPUs sind aber klein und man hat hohe Margen. Mit neuen Fertigungsverfahren kann man Kerne verbreitern, da man ja nicht einfach immer endlos die Kernanzahl erhöht und somit kann man die IPC erhöhen. Bei GPUs geht das nicht einfach so, da man ja dann die Einheitenzahl nicht mehr so stark erhöhen kann.

Gast
2025-04-12, 22:33:35
also ok, Blackwell wurde nicht effizienter usw. aber das hängt ja immer auch an der Fertigung
Nicht nur, siehe AMD V7 zu RDNA1 zu RDNA2. Aber das geht halt meist über Kosten, und die will NVidia halt so niedrig halten, wie möglich.

Gast
2025-04-13, 17:44:04
NV liefert nicht ab, sondern versucht, fehlende Performance mit einer unausgereiften Softwarelösung zu kaschieren. Dabei ist NV für einen Performancefortschritt nicht auf eine bessere Fertigung angewiesen. NV braucht dazu nur den AI-Ballast zu Gunsten einer besseren RT-Hardwarebeschleunigung einsparen. Diesbezüglich gab es bei der neuen Generation keinerlei Fortschritt. Ein auf RT statt AI optimierte Architektur mit aktueller Fertigung, ~700mm² und 250W würde Krücken wie Hybridrendering, Upscaling, FG und 575W-Heizungen überflüssig machen.

Gast
2025-04-15, 11:48:30
Nicht nur, siehe AMD V7 zu RDNA1 zu RDNA2. Aber das geht halt meist über Kosten, und die will NVidia halt so niedrig halten, wie möglich.

RDNA1 war auch schrecklich ineffizient, wenn man mal ein gewisses Level erreicht hat sind weitere Verbesserungen nur schwer möglich.

Gast
2025-04-15, 11:51:12
NV braucht dazu nur den AI-Ballast zu Gunsten einer besseren RT-Hardwarebeschleunigung einsparen.


Der "AI-Ballast" bringt wesentlich mehr Performance als es jemals durch mehr andere Hardware in selber Fläche möglich wäre.


Diesbezüglich gab es bei der neuen Generation keinerlei Fortschritt.


Es gibt neue RT-Units, nur sind die bereits vor Blackwell so gut dass sie selten limitieren.

G4st
2025-04-16, 16:51:03
Der "AI-Ballast" bringt wesentlich mehr Performance als es jemals durch mehr andere Hardware in selber Fläche möglich wäre.


Der AI-Ballast bringt keine Performance sondern kostet Performance. NV versucht lediglich, fehlende Performance auf Kosten von Bildqualität, Latenz und Transistoren, die dann an anderer Stelle fehlen, per Software zu kaschieren. Es werden Frames gegen Fakeframes getauscht, um fürs Marketing möglichst lange Balken zu erzielen. Davon sollte sich niemand täuschen lassen.


Es gibt neue RT-Units, nur sind die bereits vor Blackwell so gut dass sie selten limitieren.

Die Architektur muss auf RT statt AI optimiert sein, damit RT effizient berechnet und nicht durch vermeidbare Flaschenhälse ausgebremst wird. Bessere Hardwarebeschleunigung (z.B. coherency gathering) ist möglich, aber das kostet natürlich mehr als Resteverwertung aus der AI-Entwicklung.

Vielleicht wäre es besser, die GeForce-Abteilung von Nvidia abzuspalten, bevor diese vollständig durch AI kannibalisiert wird, damit es wieder GPUs fürs Gaming statt AI gibt und es nicht mehr so viele Probleme gibt wie bei der aktuellen Generation.

Gast
2025-04-17, 12:42:46
Der AI-Ballast bringt keine Performance sondern kostet Performance.


Er bringt wesentlich mehr FPS/BQ und das ist das einzige was zählst, wie die BQ zustande kommt ist zweitrangig.



Bessere Hardwarebeschleunigung (z.B. coherency gathering) ist möglich, aber das kostet natürlich mehr als Resteverwertung aus der AI-Entwicklung.


Schon Lovelace kann SER.


Vielleicht wäre es besser, die GeForce-Abteilung von Nvidia abzuspalten, bevor diese vollständig durch AI kannibalisiert wird, damit es wieder GPUs fürs Gaming statt AI gibt und es nicht mehr so viele Probleme gibt wie bei der aktuellen Generation.

AI ist es was zumindest in den letzten Generationen den Tod von Moores-Law noch weitestgehend kompensieren kann.
Das wird sicher auch nicht ewig so weitergehen, aber wesentlich intelligenter als Bruteforce einfach mehr Leistung zu verbauen ist es allemal.

Gast
2025-04-17, 19:42:54
Er bringt wesentlich mehr FPS/BQ und das ist das einzige was zählst, wie die BQ zustande kommt ist zweitrangig.

Durch den AI-Ballast werden FPS & BQ gegen längere Balken fürs Marketing getauscht. Davon sollte man sich nicht täuschen lassen. NV geht es wie immer nur um Profitmaximierung.


Schon Lovelace kann SER.

SER muss leider erst von den Entwicklern in ihrer Software implementiert werden und produziert Overhead, worauf die Entwickler bei der Implementierung achten müssen.
Hardwarebeschleunigung hingegen meint die Implementierung in Hardware, was effizienter ist als Softwarelösungen. Das begrenzte Transistorbudget sollte besser dafür statt fürs Fakeframe-Marketing verwendet werden.


AI ist es was zumindest in den letzten Generationen den Tod von Moores-Law noch weitestgehend kompensieren kann.
Das wird sicher auch nicht ewig so weitergehen, aber wesentlich intelligenter als Bruteforce einfach mehr Leistung zu verbauen ist es allemal.

Nvidias 575W-Heizungen sind Brutforce. Eine auf RT optimierte Architektur hingegen wäre wesentlich intelligenter und effizienter. Damit wären Performancefortschritte auch bei gleicher Fertigung und ohne explodierenden Verbrauch möglich.

Gast
2025-04-19, 17:14:27
Durch den AI-Ballast werden FPS & BQ gegen längere Balken fürs Marketing getauscht.


Die Balken werden aber sehr viel länger als die BQ geringer.


Davon sollte man sich nicht täuschen lassen. NV geht es wie immer nur um Profitmaximierung.


So wie jede company.



Hardwarebeschleunigung hingegen meint die Implementierung in Hardware, was effizienter ist als Softwarelösungen.


Hardwarebeschleunigung ist mitnichten immer effizienter, ganz im Gegenteil, heute CPUs verbraten mit OOOE eine Menge Energie, weshalb richtig Effiziente CPUs immer noch in order arbeiten.


Nvidias 575W-Heizungen sind Brutforce. Eine auf RT optimierte Architektur hingegen wäre wesentlich intelligenter und effizienter. Damit wären Performancefortschritte auch bei gleicher Fertigung und ohne explodierenden Verbrauch möglich.

Wenn es so einfach wäre, warum macht es dann niemand?

Gast
2025-04-22, 16:38:12
Die Balken werden aber sehr viel länger als die BQ geringer.


Darüber freut sich nur das Marketing. Je länger der Fakeframe-Balken desto weniger FPS.


So wie jede company.


Je größer die Marktdominanz, desto schlechter ist es für die Kunden. NV ist das Paradebeispiel dafür und schreckt nicht einmal davor zurück, die eigenen Aktionäre zu täuschen.
https://www.reuters.com/technology/us-sec-charges-nvidia-with-inadequate-disclosures-about-impact-cryptomining-2022-05-06/


Hardwarebeschleunigung ist mitnichten immer effizienter, ganz im Gegenteil, heute CPUs verbraten mit OOOE eine Menge Energie, weshalb richtig Effiziente CPUs immer noch in order arbeiten.

Dein Vergleich ist falsch. Auch für die Implementierung von OOOE gilt natürlich, dass eine Implementierung in Hardware effizienter ist als eine in Software. Drei Mal darfst du raten, warum die CPU-Hersteller ihre OOOE in Hardware statt in Software implementieren. Ein weiteres Beispiel ist Videoencoding und -decoding.


Wenn es so einfach wäre, warum macht es dann niemand?

Dieser Frage nachzugehen, wäre Aufgabe der Fachpresse. Aber leider hat diese bisher kein Interesse daran und ist zufrieden mit AI-Resteverwertung zur Profitmaximierung oder ist vom Thema überfordert.