Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia Blackwell (Nachfolger von Hopper & Ada, 2025)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 [27]

Troyan
2025-05-20, 13:15:39
~75% des Postings wieder mal am Thema vorbei. Es geht nicht um Rastergrafik oder FSR. Es geht um Manipulation von Reviews.
Wie immer komplett unreflektiertes und zT vom Thema abweichendes Fanboygeseier. Mit dir ist jegliche sachliche Diskussion sinnfrei.

Jaja, immer ablenken, wenn die Wahrheit nicht mehr zu leugnen ist.

Es steht dir doch frei zu zeigen, dass Gamernexus die technischen Fortschritte von nVidia auch in seinen Test sauber abgebildet hat. Und nicht nur so nebenbei, weil die ja nicht wichtig wären.

Ich spiele heute mit Pathtracing. Und das ist möglich trotz dieser Youtuber. Man könnte nun auch fragen, welchen Sinn haben diese Leute, wenn die sich sowieso nicht für den Grafikkartenkäufer abseits von AMD interessieren?
Und das hier ist losgelöst von den anderen Sachen, die Gamernexus macht. Aber Funktionen von GPUs zu ignorieren, weil man kein Bock auf diese hat, ist eben ein reines subjektives Verhalten.

Du kannst ja heute so spielen, wie dieser Channel es dir jahrelang angepriesen hat - Im nativen 4K mit 20 FPS in UE5 Spielen mit Software-Lumen.

Raff
2025-05-20, 14:40:51
Das hat noch keine andere Grafikkarte dieser Generation geschafft: https://x.com/antispack/status/1924799176593842583

MfG
Raff

dildo4u
2025-05-20, 14:50:25
Ohne Undervolt nimmt sie bis zu 150 Watt kein Plan warum das so ausgeliefert wird.


https://youtu.be/4dHcDCvcVzU?si=hVgjlK0KDwuae0nu&t=215

Lehdro
2025-05-20, 14:53:00
Geschichtsrelativierung sondersgleichen.
Es geht um die Graphen mit den Latenzvorteilen, die waren fast ausschliesslich mit DLSS/FG/MFG + Reflex vs alles off. Jo danke. Wenn ich kein DLSS/FG/MFG habe oder gar will, präsentiert NV Reflex äußerst schwach - quasi gar nicht abseits der reinen Erwähnung des Features. Noch dazu ist es Standardmäßig fast immer ausgeschaltet, was komplett Banane ist, aber halt den Vergleich verbessert wenn man FG/MFG zuschaltet - denn dann wird auch Reflex automatisch aktiviert. Ein Schelm...

Und vergess nie, diese Channels haben sich null eingesetzt als AMD Publisher bezahlt hat DLSS aus den Spielen rauszuhalten und PC-Gamer einzig mit dem FSR Schrott zu beglücken. Es waren die PC-Spieler, die das festgestellt haben. Die Reviewer waren von Tag 1 gegen DLSS und somit nie eine Mauer gegen, wie du es sagst, "consumerfeindliches" Verhalten.
Ich zitier dich mal:

Geschichtsrelativierung sondersgleichen.
Es war HWU die ein riesiges Fass deswegen aufgemacht haben. (https://www.youtube.com/watch?v=m8Lcjq2Zc_s)

Es steht dir doch frei zu zeigen, dass Gamernexus die technischen Fortschritte von nVidia auch in seinen Test sauber abgebildet hat. Und nicht nur so nebenbei, weil die ja nicht wichtig wären.
Es steht GN frei zu zeigen was sie für wichtig erachten. Es steht NV nicht zu, zu verlangen das GN Werbung für NV macht. Versteh das doch endlich. Ich schaue PCGH/GN/HWU whatever um zu sehen wie diese die Hardware+Software bewerten und nicht um zu sehen wie NV meint dass PCGH/GN/HWU whatever diese zu bewerten haben.

Ja, NV kann dann bei Nichtgefallen gerne Karten zurückhalten, ihr gutes Recht. Aber Zugriff auf deren Ressourcen an Bedingungen außerhalb von NDA üblichen Sachen zu knüpfen ist moralisch und ethisch halt die unterste Schiene. Die einzige Bedingung sollte folgende sein: Es gibt ein Review zum Releasedatum. Mehr nicht.

ENKORE
2025-05-20, 15:41:11
GN hat doch diverse längliche Videos nur über DLSS und (M)FG gemacht, allein im Februar gab es mehr als ne Stunde an Reviews und Analysen. "Nicht nur so nebenbei"; kek. Insane member scheint es zu treffen :x

HOT
2025-05-20, 15:47:52
Für NV ging es ja einzig und allein darum per MFG FPS zu faken im Launchreview, nichts anderes ist für die relevant und nichts anderes ist der Streitpunkt.

Lehdro
2025-05-20, 16:09:39
Für NV ging es ja einzig und allein darum per MFG FPS zu faken im Launchreview, nichts anderes ist für die relevant und nichts anderes ist der Streitpunkt.
Eben, die Vorgabe war ja laut GN dass die MFG Werte IM SELBEN GRAPH auftauchen MÜSSEN. Nicht von wegen, "testet das bitte mit", nein, sie müssen im selben Graphen auftauchen.

HOT
2025-05-20, 16:22:48
Exakt. Und da das nicht passiert ist, haben sie sämtliche Kontakte zu GN abgebrochen. Die werden jetzt auch keine Samples mehr bekommen.
Meiner Meinung nach wird aber diese Politik, die NV da fährt, dazu führen, dass sie es sich mit allen großen Magazinen verscherzen und das ist einfach Selbstzerstörung.

Jay hats mMn ziemlich genau auf den Punkt gebracht:
https://youtu.be/a_CuOTK-XiY

Hakim
2025-05-20, 17:05:54
Zumindest die Selbstbau Gruppe scheint die Karte Links liegen zu lassen, 5060 die normal meist verkaufte Reihe jeder GF Gen bei MF nur 10+ verkauft. Ich weiß das es sich dennoch insgesamt viel verkaufen wird. Aber es ist unüblich das es so ruhig bei einem Launch ist

Sardaukar.nsn
2025-05-20, 18:05:00
Die deutschen Selbstbauer sind ja auch bereit deutlich mehr Geld für Grafikkarten auszugeben. In anderen Teilen der Welt wird das anders aussehen. Die 5060 wird sich international bei Steam schon irgendwo oben einreihen.

Das hat noch keine andere Grafikkarte dieser Generation geschafft: https://x.com/antispack/status/1924799176593842583

MfG
Raff

Nehm ich als passiv gekühlte Palit kalmX ohne zusätzlichen Stromstecker.

https://lh5.googleusercontent.com/proxy/Hv4NZkLmxBNZO_gO91RMoSKkl7Cd8iy4Pa14V9jzDAzW15zZZlmq9jjkpOVZlWuAbWNla5IeuWd33Mm4 nSkpv1vF0in_wPfRGTRiRDzVOsppQUkcqAsi3Xskx8Kde37AaZ-29rM

x-force
2025-05-20, 18:17:10
Nehm ich als passiv gekühlte Palit kalmX ohne zusätzlichen Stromstecker.]

das wäre die langersehnte 5030, dafür fehlt aber der 08er die

SentinelBorg
2025-05-20, 22:43:04
Jetzt lasst doch bitte das aktuell weltweit wertvollste Unternehmen in Ruhe ihr Miesepeter!!!111elf Die können sich doch gar nicht wehren gegen die pöhsen Steves.

Hakim
2025-05-21, 12:46:57
https://www.computerbase.de/news/grafikkarten/rtx-5080-super-angebliche-spezifikationen-mit-24-gb-vram-aufgetaucht.92782/

Bisher nur zum 5080 Super Gerüchte, Frage mich wann es zum 5070S gibt

Raff
2025-05-21, 21:01:31
An die Voll-Nerds hier (ausdrücklich positiv gemeint), ich bräuchte mal Feedback von euch. Findet ihr das geil? =) Resolution Scaling:

https://www.pcgameshardware.de/Geforce-RTX-5060-Grafikkarte-281134/Tests/Release-Test-Benchmarks-1472370/2/#a3

"Wer eine Grafikkarte für viele Jahre kauft, sollte die Ergebnisse daher besonders ernst nehmen. Maßgeblich ist der Einbruch mit steigender Auflösung, bei dem es klare Sieger und Verlierer gibt. So lassen die Geforce RTX 4060 und RTX 5060 in höheren Auflösungen signifikant Federn, während die Schere bei den anderen Grafikkarten nicht so weit aufgeht. Ob das nun primär an der Cache-Größe, Speichermenge oder PCIe-Anbindung liegt, können wir nicht mit Sicherheit sagen - wohl aber, dass die Geforce RTX 5060 Ti 16GB, Arc B580 12GB und sogar die alte Geforce RTX 3060 12GB diese Probleme nicht haben."

MfG
Raff

PHuV
2025-05-21, 23:04:02
Schade, DGX Spark verzögert sich, und ich dachte, ich könnte schon Juni Juli eins in den Händen halten
hwluxx - DGX Spark - Mehr Vielfalt ab der zweiten Generation (https://www.hardwareluxx.de/index.php/news/hardware/komplettsysteme/66201-dgx-spark-mehr-vielfalt-ab-der-zweiten-generation.html)
Warum sich der GB10 Grace Blackwell Superchips derart verzögert hat, darüber kann nur spekuliert werden. Es gibt Gerüchte, die von einem Teildefekt einer Komponente sprechen, der wiederum dafür sorgt, dass der Chip nicht wie geplant in den Spark-Systemen eingesetzt werden kann. Ein Respin des Chips, als das Redesign, neuer Tape-Out, Validierung etc. kosten Monate und sorgen daher für Verzögerungen.

MSABK
2025-05-21, 23:09:28
Hmm, vlt auch der Grund warum keine kleinen Chips für Windows on ARM vorgestellt wurden?

r-or
2025-05-22, 09:25:20
An die Voll-Nerds hier (ausdrücklich positiv gemeint), ich bräuchte mal Feedback von euch. Findet ihr das geil? =)
Ohne den Artikel gelesen zu haben. Die Grafik ist nicht besonders gut - same old, Balken für Auflösungen skaliert wie üblich. Was du herausstellen willst, ist ein Resolution Score oder sowas wie ein Zukunftsfähigkeitsscore.
So wie es jetzt ist, ist es einfach das Performanceranking, und man muss selber schätzen, oder berechnen, wie viel die Karte nun verliert.

Was auch interessant wäre, da ihr ja Daten aus Jahrzehnten habt: ein statistischer Score welcher den tatsächlichen Wert der Verdopplung von VRAM über all die Jahre ermittelt: z.B. Verdopplung RAM bringt im Schnitt 1.5 Jahre mehr bei AMD, und 2 bei Nvidia. Ein Score für Nutzungsdauer bzgl verschiedener Komponenten.

Das sind die Dinge, die mir gerade auf dem Klo einfallen :biggrin:

skar
2025-05-22, 12:52:19
An die Voll-Nerds hier (ausdrücklich positiv gemeint), ich bräuchte mal Feedback von euch. Findet ihr das geil? =) Resolution Scaling:

https://www.pcgameshardware.de/Geforce-RTX-5060-Grafikkarte-281134/Tests/Release-Test-Benchmarks-1472370/2/#a3

"Wer eine Grafikkarte für viele Jahre kauft, sollte die Ergebnisse daher besonders ernst nehmen. Maßgeblich ist der Einbruch mit steigender Auflösung, bei dem es klare Sieger und Verlierer gibt. So lassen die Geforce RTX 4060 und RTX 5060 in höheren Auflösungen signifikant Federn, während die Schere bei den anderen Grafikkarten nicht so weit aufgeht. Ob das nun primär an der Cache-Größe, Speichermenge oder PCIe-Anbindung liegt, können wir nicht mit Sicherheit sagen - wohl aber, dass die Geforce RTX 5060 Ti 16GB, Arc B580 12GB und sogar die alte Geforce RTX 3060 12GB diese Probleme nicht haben."



MfG
Raff

Das ist eine sehr gute Idee,
schön wäre auch wenn die Gängigen 21:9 Auflösungen mit aufgenommen werden könnten,
wobei ich allerdings k.a. habe wie verbreitet die mittlerweile sind.

Bisher rechne ich das ganze immer per Dreisatz über die Gesamtpixeldichte aus wo grob die Native Leistung liegt für Breitbild :freak:

Generell wäre es eine gute Informationsquelle für Leute wie mich die (leider) regelmäßig ihre Monitore tauschen.
Meine innere Stimme will mich zurzeit dazu überreden meinen 45“ LG OLED Monitor gegen den neuen LG 45“ Monitor mit 5K zu tauschen, der alte ist ja bereits 1,5 Jahre alt.:freak:

The_Invisible
2025-05-22, 13:08:10
Na gut bei 5k2k immer die schnellste GPU was gibt, fertig :freak:

skar
2025-05-22, 13:40:33
Joa,
wäre trozdem schön zu Wissen wie die verschiedenen Karten bei 2560x1080/3440x1440/5120x2160 performen.

skar
2025-05-22, 13:44:41
Sehr grade ich bin Blind zwei WQHD Auflösungen sind ja drinnen Raff, also ist super so ..:freak:

ich gehe dann mal in den Keller mich schämen

Lehdro
2025-05-22, 14:04:33
An die Voll-Nerds hier (ausdrücklich positiv gemeint), ich bräuchte mal Feedback von euch. Findet ihr das geil? =) Resolution Scaling:
Der Test ist gut und wichtig, aber die Präsentation ist armselig (sorry).

Was willst du darstellen? Wie gut die GPU skaliert mit höheren Auflösungen?

Dann dreh dein Diagramm um. Zeige absolute Negativwerte (in Prozent, Basis ist 1080p). Welche Karte verliert am wenigsten Performance in der jeweiligen Auflösung - die dann oben im Chart, dann nach unten absteigend.

Oder als einfachere Lösung im derzeitigem Format:
Du zeigst in deinem Diagramm welche Karte wie skaliert, aber halt mehr oder weniger relativ zueinander - weil du halt ohne Mausover nur die FPS siehst. Vielleicht solltest du die FPS als Mouseover festlegen und die % als sichtbare Basis? Denn wichtiger wäre es mMn zu zeigen, welche Karte absolut am wenigsten (oder am meisten) verliert, weil dass der Punkt ist den du eigentlich herausarbeiten willst, oder? Dafür sollten die Prozentwerte im Vordergrund stehen (natürlich mit derselben Basis pro Karte), weil man die direkt vergleichen kann, die FPS aber nur relativ. Ich hoffe das ergibt für dich Sinn.

Raff
2025-05-23, 12:43:50
Gutes Feedback, ich danke euch! :up: Ich werde mal darüber brüten.

MfG
Raff

x-force
2025-05-23, 13:06:35
Gutes Feedback, ich danke euch! :up: Ich werde mal darüber brüten.

MfG
Raff

ich halte die aussagekraft des ganzen für fragwürdig.
der zusammenhang zur zukunftsfähigkeit ist unklar.
die rechenlast wird in zukunft nicht linear skalieren, sondern noch stärker richtung tensor, ray und co gehen.
wenn aktuell die rops bei 1080p voll sind, aber erst die hälfte der rt cores ausgelastet sind, skaliert es auf 4k schlecht, aber bei gleicher auflösung ist noch potential für zusätliche rechenlast.

-> wenn eine karte wenig verliert, war man auf niedriger auflösung entweder ineffizient und recheneinheiten sind nicht voll ausgelastet, oder im cpu limit.

Troyan
2025-05-23, 14:46:06
An die Voll-Nerds hier (ausdrücklich positiv gemeint), ich bräuchte mal Feedback von euch. Findet ihr das geil? =) Resolution Scaling:

https://www.pcgameshardware.de/Geforce-RTX-5060-Grafikkarte-281134/Tests/Release-Test-Benchmarks-1472370/2/#a3

"Wer eine Grafikkarte für viele Jahre kauft, sollte die Ergebnisse daher besonders ernst nehmen. Maßgeblich ist der Einbruch mit steigender Auflösung, bei dem es klare Sieger und Verlierer gibt. So lassen die Geforce RTX 4060 und RTX 5060 in höheren Auflösungen signifikant Federn, während die Schere bei den anderen Grafikkarten nicht so weit aufgeht. Ob das nun primär an der Cache-Größe, Speichermenge oder PCIe-Anbindung liegt, können wir nicht mit Sicherheit sagen - wohl aber, dass die Geforce RTX 5060 Ti 16GB, Arc B580 12GB und sogar die alte Geforce RTX 3060 12GB diese Probleme nicht haben."

MfG
Raff

Die Aussage ist fragwürdig, da die Zukunft UE5 ist und mehr als 1080p hier sowieso nicht machbar ist.

Doom Dark Ages benötigt nicht mehr als 8GB in 1440p und die 5060 TI 8GB ist 82% schneller als die 3060 : https://www.techpowerup.com/review/doom-the-dark-ages-performance-benchmark/5.html

Raff
2025-05-23, 15:11:39
Merke: Ich habe immer Schlechtwetterkirschen gegen Schönwetterkirschenpflücker im Köcher: https://www.pcgameshardware.de/Doom-The-Dark-Ages-Spiel-74718/Specials/Test-Release-Review-Steam-Benchmarks-Raytracing-1471919/3/#a1 ;)

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=93055&stc=1&d=1748005890

MfG
Raff

Platos
2025-05-23, 18:11:27
Also mir gefallen die Tests bzw. Diagramme (aber dem Vorschlag von oben spreche ich nicht dagegen).

Finde das gut, dass du dich gut auf Speicher konzentrierst und aufzeigst, dass die Speicherkrüppel eben genau das sind.

Wird brauchen endlich (bezahlbare) 24/32GB Grafikkarten :)

aths
2025-05-24, 00:20:18
An die Voll-Nerds hier (ausdrücklich positiv gemeint), ich bräuchte mal Feedback von euch. Findet ihr das geil? =) Resolution Scaling:

https://www.pcgameshardware.de/Geforce-RTX-5060-Grafikkarte-281134/Tests/Release-Test-Benchmarks-1472370/2/#a3

"Wer eine Grafikkarte für viele Jahre kauft, sollte die Ergebnisse daher besonders ernst nehmen. Maßgeblich ist der Einbruch mit steigender Auflösung, bei dem es klare Sieger und Verlierer gibt. So lassen die Geforce RTX 4060 und RTX 5060 in höheren Auflösungen signifikant Federn, während die Schere bei den anderen Grafikkarten nicht so weit aufgeht. Ob das nun primär an der Cache-Größe, Speichermenge oder PCIe-Anbindung liegt, können wir nicht mit Sicherheit sagen - wohl aber, dass die Geforce RTX 5060 Ti 16GB, Arc B580 12GB und sogar die alte Geforce RTX 3060 12GB diese Probleme nicht haben."

MfG
Raff
Ich fand und finde Auflösungsskalierung sehr wichtig. Egal ob in der Voodoo-Zeit oder später der GeForce-4-Ära. Okay Antialiasing wurde war damals noch echt (Super- oder zumindest Multi-Sampling), selbst eine 5900 XT (also eine langsam getaktete 5900) hatte dank 256-Bit-Interface die Fähigkeit, hohe Settings inklusive Antialiasing einfach zu fressen ohne groß Federn zu lassen. Die Karte war bei meinen Spielen auch in höheren Auflösungen gut brauchbar. Ein ähnliches Erlebnis hatte ich mit der 285 GTX 2 GB (ein Vorteil als damaliger EVGA-Mitarbeiter). Das Ding fraß einfach alles. AA, AF, höhere Auflösungen, wurscht. Also letztlich in beiden Fällen eine Art CPU-Limitierung.

Die GTX 9800 die ich zuvor hatte, war dank Unteraktung bei fixen 40% Lüfter-Drehzahl leise und vergleichsweise leistungsstark für ihre Zeit, aber Effekte und Auflösungen skalierten sozusagen linear.

So wie ich das sehe, skaliert die 5600 je nach Spiel sublinear. Das ist scheiße. Auch rein als Techniker finde ich es cringe, ein Produkt so unausgewogen zu gestalten. 5060 mit 12 GB RAM zu dem Preis und selbst jeder Steve würde Loblieder singen.

5060 Ti ausschließlich mit 16, eine 5070 mit 18 GB, und wir würden Raff nur noch grinsen sehen. Die Ti mit 24, die 5080 auch, die 5090 weiterhin mit ihren 32 GB, jeder würde Nvidia abfeiern. Und die 50-er Serie als echte Entwicklung preisen.

Und dann laucht NV eine 5050 mit 8 und eine 5040 mit 6 GB RAM zum entsprechenden Preis. Presse-Echo: Moderne Technologie auch endlich für Budget-Gamer, bei dem Speicher gibts natürlich Einschränkungen aber was will man machen.

Lawmachine79
2025-05-24, 00:33:54
Ich fand und finde Auflösungsskalierung sehr wichtig. Egal ob in der Voodoo-Zeit oder später der GeForce-4-Ära. Okay Antialiasing wurde war damals noch echt (Super- oder zumindest Multi-Sampling), selbst eine 5900 XT (also eine langsam getaktete 5900) hatte dank 256-Bit-Interface die Fähigkeit, hohe Settings inklusive Antialiasing einfach zu fressen ohne groß Federn zu lassen. Die Karte war bei meinen Spielen auch in höheren Auflösungen gut brauchbar. Ein ähnliches Erlebnis hatte ich mit der 285 GTX 2 GB (ein Vorteil als damaliger EVGA-Mitarbeiter). Das Ding fraß einfach alles. AA, AF, höhere Auflösungen, wurscht. Also letztlich in beiden Fällen eine Art CPU-Limitierung.

Die GTX 9800 die ich zuvor hatte, war dank Unteraktung bei fixen 40% Lüfter-Drehzahl leise und vergleichsweise leistungsstark für ihre Zeit, aber Effekte und Auflösungen skalierten sozusagen linear.

So wie ich das sehe, skaliert die 5600 je nach Spiel sublinear. Das ist scheiße. Auch rein als Techniker finde ich es cringe, ein Produkt so unausgewogen zu gestalten. 5060 mit 12 GB RAM zu dem Preis und selbst jeder Steve würde Loblieder singen.

5060 Ti ausschließlich mit 16, eine 5070 mit 18 GB, und wir würden Raff nur noch grinsen sehen. Die Ti mit 24, die 5080 auch, die 5090 weiterhin mit ihren 32 GB, jeder würde Nvidia abfeiern. Und die 50-er Serie als echte Entwicklung preisen.

Und dann laucht NV eine 5050 mit 8 und eine 5040 mit 6 GB RAM zum entsprechenden Preis. Presse-Echo: Moderne Technologie auch endlich für Budget-Gamer, bei dem Speicher gibts natürlich Einschränkungen aber was will man machen.
Ich habe von der 5900XT gelernt, dass es sich nicht lohnt, Fanboy zu sein. Seitdem stehe ich immer auf der Seite des Siegers.

x-force
2025-05-24, 01:47:46
so schön die wünsche auch sind, wir haben noch nicht weihnachten und das pferd springt nur so hoch wie es muss.

hätte amd einen doppelten navi 48 gebracht, stünde der 5090 ein gegner gegenüber.
über die salvages hätte nvidia auch überhalb der 5070ti einen gegner,
mit den entsprechenden salvages würde sich auch die lücke von 5080 zu 5090 schließen.

Platos
2025-05-24, 10:12:01
Insofern ist es in gewisser Weise sogar schädlich, ein Fanboy zu sein, denn dadurch muss AMD also quasi nicht besonders hoch springen, die fressen sowieso alles...(etwas übertrieben gesagt).

Das ist wie eine sich selbst erhaltende Blase. Wobei jetzt mit der Blackwellgeneration hätte AMD mit ihren neuerungen (die zum Teil durchaus sehr positiv sind) durchaus ein riesen Potential gehabt, mit viel Speicher und günstigem Preis ordentlich Druck zu machen und Marktanteile zu gewinnen.

Aber augenscheinlich will das keiner der 2 Marktteilnehmer neben nvidia. AMD hätte diese Generation wirklich richtig tief in nvidiaa Wunde drücken können. Aber sie lassen es bleiben und spielen Trittbrettfahrer.

basix
2025-05-29, 09:25:17
Nvidia Quartalszahlen: 44.1 Mrd. Umsatz
https://nvidianews.nvidia.com/news/nvidia-announces-financial-results-for-first-quarter-fiscal-2026

Wenn das so weiter geht, machen die im Fiskaljahr 2026 noch 200 Mrd. Umsatz.

Noch heftig:
Q2/2026 Outlook: Revenue is expected to be $45.0 billion, plus or minus 2%. This outlook reflects a loss in H20 revenue of approximately $8.0 billion due to the recent export control limitations.

Und auch interessant:
Die Gaming Sparte hat ein Rekordergebnis erreicht.

AffenJack
2025-05-29, 10:19:10
Nvidia Quartalszahlen: 44.1 Mrd. Umsatz
https://nvidianews.nvidia.com/news/nvidia-announces-financial-results-for-first-quarter-fiscal-2026

Wenn das so weiter geht, machen die im Fiskaljahr 2026 noch 200 Mrd. Umsatz.

Noch heftig:


Und auch interessant:
Die Gaming Sparte hat ein Rekordergebnis erreicht.

Die 8 Mrd weniger Umsatz sind einfach nur absurd. Einfach mal AMDs Umsatz, bzw zwei Drittel von Intel verloren und trotzdem erwartet man Umsatz nah am rekordquartal.

Aber Gamin überrascht mich am meisten. Hätte nicht gedacht, dass man wirklich soviel Gaming Blackwell ausgeliefert hat bei der Verfügbarkeitssituation.

basix
2025-05-29, 12:03:38
Bei Gaming könnte es mehrere Gründe geben:
- Generell erhöhte MSRPs
- Lovelace Lieferbarkeit Austrocknung vor Blackwell Release = Mehr unmittelbarer Bedarf
- Nintendo Switch 2
- Gaming-GPUs werden vermehrt in AI-Verbtriebskanäle geliefert

Wobei jetzt mit der Blackwellgeneration hätte AMD mit ihren neuerungen (die zum Teil durchaus sehr positiv sind) durchaus ein riesen Potential gehabt, mit viel Speicher und günstigem Preis ordentlich Druck zu machen und Marktanteile zu gewinnen.

Aber augenscheinlich will das keiner der 2 Marktteilnehmer neben nvidia. AMD hätte diese Generation wirklich richtig tief in nvidiaa Wunde drücken können. Aber sie lassen es bleiben und spielen Trittbrettfahrer.
AMDs Problem ist, dass sie noch nicht die entsprechende Stärke haben, um solch einen Power-Move zu machen. Die 9070er Karten sind preislich attraktiver als die Blackwell Gegenstücke, aber haben halt auch ein Feature und Mindshare Defizit.

Bei den 9060ern sieht es zudem etwas positiver aus. Die 9060XT 16GB für 349$ MSRP dürfte attraktiver sein als die 429$ der 5060Ti 16GB. Die relative preisliche Positionierung dürfte sehr ähnlich wie 9070XT zu 5070Ti sein, doch hier ist man generell sensitiver auf ein paar Euro Unterschied.

Was ich also vermute:
AMD will mit RDNA4 die Grundlagen für die nächsten Schritte legen. Gute Architektur ohne grössere Schwächen, Feature-Updates in HW (Matrix-Acceleration, RT) und SW (Lücken bei DLSS schliessen) und etwas bessere P/L als Nvidia. Das gibt mal positive Presse und Nutzerimpressionen. Blackwell hat zudem einiges an Negativpresse erhalten. Allein schon aus diesen Gründen wird AMD gut Marktanteile gewinnen. Bei der nächsten Generation werden sie wahrscheinlich 3 anstatt 2 Chips haben (ich vermute 128/192/256bit). Damit dürfte man den Bereich von 300...800$ abdecken können. Vielleicht sogar bis 1000$. AMD wird hier vermutlich nicht gross von der RDNA4-Strategie abweichen: Den Grossteil des Marktes bedienen. Letzte Feature-Lücken schliessen und generell besseres P/L bieten. Hier könnte AMD aber dann einen Gang höher schalten: >1.2x besseres P/L als Nvidia bei ~Feature-Parität kann man nicht mehr wegdiskutieren.

ENKORE
2025-05-30, 21:44:21
Seit Umstieg auf die Blackwell habe ich öfter das Problem, dass nach ca 20 Sekunden aus dem Aufwachen aus dem Standby die Bildschirme mehrmals Flackern. Im Eventlog finden sich korrespondierende Einträge. Meistens dauert es auch ein paar Sekunden länger als normal aus dem Standby aufzuwachen. *

A caller specified the SDC_FORCE_MODE_ENUMERATION flag in a call to the SetDisplayConfig() API

Im NV-Forum beschwert sich jemand bei Treiber 572.60 drüber (bin bei 576.28 aktuell):
https://www.nvidia.com/en-us/geforce/forums/game-ready-drivers/13/558073/geforce-grd-57260-feedback-thread-released-22725/3508488/

Kennt das jemand?

* Gerade eben z.B. hat's viermal geflackert:
21:24:06 RTC-Sync
21:24:17 The system has returned from a low power state.
21:24:54 SDC_FORCE_MODE_ENUMERATION
21:24:55 SDC_FORCE_MODE_ENUMERATION
21:25:06 SDC_FORCE_MODE_ENUMERATION
21:25:07 SDC_FORCE_MODE_ENUMERATION

basix
2025-06-12, 22:27:34
Noch interessante Details zu GB300 (Blackwell Ultra):
- Nvidia erhöht FP4 Duchsatz um 50%
- Im Gegenzug wird FP64 und INT8 massiv gestutzt
https://resources.nvidia.com/en-us-blackwell-architecture

Raff
2025-06-12, 22:38:06
1/32stel ist wirklich nur noch Basiskompatibilität. Meine Titan V lacht den "Ultra-Superchip" aus. ;D

MfG
Raff

Zossel
2025-06-12, 22:39:03
- Im Gegenzug wird FP64 und INT8 massiv gestutzt


Da werden sich diejenigen freuen die Wissenschaft durch Ideologie ersetzen wollen.

Raff
2025-06-12, 22:40:27
Da werden sich diejenigen freuen die Wissenschaft durch Ideologie ersetzen wollen.

Codename des Projekts ist also der große Mathematiker, Denker und Physiker Donald J. Dumb?

MfG
Raff

AffenJack
2025-06-13, 13:26:17
Noch interessante Details zu GB300 (Blackwell Ultra):
- Nvidia erhöht FP4 Duchsatz um 50%
- Im Gegenzug wird FP64 und INT8 massiv gestutzt
https://resources.nvidia.com/en-us-blackwell-architecture

Hab mich schon gefragt, wie es sein konnte, dass Dense FP4 gestiegen ist ohne das etwas anderes sich ändert. Jetzt weiß man immerhin was eingespart wurde. Also kann man die FP64 Units wohl relativ einfach umbauen, so dass am Ende mehr FP4 draus wurde.

Ob Nvidia jetzt FP64 komplett fallen lässt? AMD dürfte das mit verschiedenen Chiplets abbilden, aber bei Nvidia siehts danach aus, dass man sich komplett davon und damit eigentlich dem HPC Markt zurück zieht.

basix
2025-06-13, 13:55:11
Da bereits HPC Supercomputer mit Rubin angekündigt worden sind, dürfte Rubin eher wie B200 ausgestattet sein:
https://blogs.nvidia.com/blog/blue-lion-vera-rubin/

Leonidas
2025-06-18, 10:22:13
5090 DD
GB202-240
PG145 SKU 40
*for China market only
https://x.com/Zed__Wang/status/1935169786201391390

Leonidas
2025-06-18, 13:04:14
RTX 5090 DD?
PG145-SKU40
GB202-240-K*-A1
21760FP32
384-bit GDDR7 24G 28Gbps
575W
and there's a surprise.
https://x.com/kopite7kimi/status/1935253429334806686

OgrEGT
2025-06-18, 19:31:04
RTX 5090 DD?
PG145-SKU40
GB202-240-K*-A1
21760FP32
384-bit GDDR7 24G 28Gbps
575W
and there's a surprise.
https://x.com/kopite7kimi/status/1935253429334806686
Was könnte die Surprise sein?
Dass das Teil auch außerhalb China vermarktet wird oder dass das Teil mit 384bit gar nicht langsamer als die normale 5090 ist :ulol:

aceCrasher
2025-06-19, 16:21:02
Was könnte die Surprise sein?
Dass das Teil auch außerhalb China vermarktet wird oder dass das Teil mit 384bit gar nicht langsamer als die normale 5090 ist :ulol:
Da fragt man sich wirklich ob 384bit mit 3GB Modulen nicht von vornherein besser gewesen wäre. Man hätte trotzdem ausreichend Bandbreite durch GDDR7 und sogar mehr Speicher, gleichzeitig weniger Chipfläche durch das schmalere SI und ein weniger komplexes PCB. Vermutlich spricht die Verfügbarkeit der 3GB Module dagegen.

Lehdro
2025-06-19, 16:40:21
Da fragt man sich wirklich ob 384bit mit 3GB Modulen nicht von vornherein besser gewesen wäre. Man hätte trotzdem ausreichend Bandbreite durch GDDR7 und sogar mehr Speicher, gleichzeitig weniger Chipfläche durch das schmalere SI und ein weniger komplexes PCB. Vermutlich spricht die Verfügbarkeit der 3GB Module dagegen.
Den 512 Bit Bus kann man mit 3 GiB Modulen auch gut verhökern - sogar doppelseitig. Das Potenzial daraus eine 96 GiB RTX Pro 6000 (https://www.nvidia.com/de-de/products/workstations/professional-desktop-gpus/rtx-pro-6000/) zu basteln wollte sich NV sicherlich nicht entgehen lassen.

dildo4u
2025-06-24, 15:42:19
5050 8GB für Juli angekündigt 250$


https://videocardz.com/newz/nvidia-geforce-rtx-5050-announced-with-8gb-gddr6-249-price-launching-mid-to-late-july

HOT
2025-06-24, 16:14:43
Find ich eigentlich ne coole Ergänzungskarte für nicht-Spiele-PCs.

The_Invisible
2025-06-24, 16:18:28
Alles relativ, mein Bruder hat mal längere Zeit mit RX550 und dann RTX3050 gezockt :freak:

aceCrasher
2025-06-24, 16:24:41
Alles relativ, mein Bruder hat mal längere Zeit mit RX550 und dann RTX3050 gezockt :freak:
Wenn man nur LoL, CS, Valorant, etc. spielt reichen solche Karten ja häufig auch völlig aus.

mczak
2025-06-25, 15:21:07
Finde die Karte auch nicht so übel. Die RTX 5060 und 5060Ti 8GB haben ja den Makel dass sie eben unter Speichermangel leiden und trotzdem recht teuer sind, deswegen lautet die Empfehlung ja immer man soll zu 16GB Karten greifen. Die 5050 hat natürlich genau so Speichermangel, die Preisdifferenz zur günstigsten 16 GB Karte (bei nvidia) ist jetzt aber schon ziemlich massiv (249$ zu 429$ MSRP), also klar ein anderes Preissegment, da kann man wohl eher damit leben.
Performancemässig würde ich meinen erreicht wohl so 70% der 5060 und 60% der 5060Ti 8GB, sollte wohl ganz knapp unterhalb einer 4060 landen (die hat 20% mehr Shadereinheiten, dafür etwas weniger Takt und etwas weniger Speicherbandbreite). Als Einstiegskarte ganz ok (man kann natürlich bemängeln dass da beim Preis/Leistungsverhältnis (zu MSRP-Preisen) der Fortschritt gegenüber der 4060 wohl bloss minimal ist, aber immerhin).
Ausserdem ist da der Chip sicher schön klein (wohl so 140mm²?), die Karten sehen auch nicht sehr aufwendig aus - sehr profitabel...
Fragt sich ob AMD da auch noch was bringen wird (in Form eines teildeaktivierten N44).

Raff
2025-06-25, 21:14:00
Schau dir das mal an und wiederhole, dass das ein gutes Paket ist. ;)

5WZqT_ym6Z0

MfG
Raff

x-force
2025-06-25, 22:00:05
Schau dir das mal an und wiederhole, dass das ein gutes Paket ist. ;)

ohne rdna4 zum gleichen preis ist es die beste alternative im low end.

dildo4u
2025-06-26, 06:28:40
Diese Low End Karten haben mher Sinn gemacht als NV nicht am Cuda Core Count gespart hat jetzt müssen sie den Takt und TDP erhöhen was passive 75 Watt Modelle verhindert.

Raff war hier erstaunlich angetan
https://www.pcgameshardware.de/Geforce-RTX-3050-6GB-Grafikkarte-280241/Tests/6GB-vs-8GB-RTX-3050-vs-RX-6600-vs-A580-1444664/4/

Hakim
2025-06-29, 12:03:15
Wie schon seit Ewigkeiten spekuliert wie die 5070S aussehen könnte

https://videocardz.com/newz/nvidia-geforce-rtx-5070-super-reportedly-features-6400-cuda-cores-and-18gb-memory

Pitman
2025-06-29, 12:48:45
Nicht schlecht aber diese 5070 super wird doch mehr verbrauchen als eine 4070Ti super bzw. dann genauso viel verbrauchen.

Hakim
2025-06-29, 12:57:49
Ja 275W erscheint mir auch etwas viel zumal der direkte Konkurrent der in der selben Performance Region sein wird, die 9070, bei 220W liegt. Aber GeForce typisch wird es sich im Durchschnitt eher oft darunter liegen, mal sehen.

Die 5070 bei 250W, schluckt bei CB auch im Durchschnitt 222W.

Leonidas
2025-06-29, 16:12:02
Die Grund-Spezifikationen zu GeForce RTX 5070 Super, 5070 Ti Super & 5080 Super
https://www.3dcenter.org/news/geruechtekueche-die-grund-spezifikationen-zu-geforce-rtx-5070-super-5070-ti-super-5080-super

Troyan
2025-06-29, 16:16:41
Ja 275W erscheint mir auch etwas viel zumal der direkte Konkurrent der in der selben Performance Region sein wird, die 9070, bei 220W liegt. Aber GeForce typisch wird es sich im Durchschnitt eher oft darunter liegen, mal sehen.

Die 5070 bei 250W, schluckt bei CB auch im Durchschnitt 222W.

Maximale Verbrauchsangabe hat null Aussagekraft seit Lovelace. Man will sich nur absichern, dass man nicht langsamer als die GPUs mit weniger Speicher wird, weil die GPUs beim selben MaxTDP-Limit stärker runtertakten würden.

Ansonsten kommt jetzt der GDDR7 Vorteil durch, dass man 3GB Chips verbauen kann.

=Floi=
2025-06-29, 16:19:15
4gb wären ein vorteil. 3gb sind der reinste joke.

#warum soll max tdp keine aussagekraft mehr haben?

Troyan
2025-06-29, 16:26:29
50% mehr Speicher reichen vollkommen. Mehr als 16GB benötigt niemand unter einer 5090.

Weil der Stromverbrauch seit Lovelace nunmal vom Spiel und Auflösung abhängt. Da laufen Spiele auch mal mit 1/3 weniger als MaxTDP wie z.B. Doom Dark Ages - in 1440p läuft die 5070TI mit 240W https://youtu.be/diS68yNQCIg?t=475 und z.B. Monster Hunter sind es 210W https://youtu.be/UoZnL4gbc9Y?t=551

Hakim
2025-06-29, 16:59:00
ja schon gibt aber immer noch Spiele die nahe am Max TPD sind oder gar ganz ausreizen. Das wird wenn man es hoch auf 275W stellt und den Takt erhöhen will wohl auch noch geben.

Matrix316
2025-07-01, 10:25:22
Also eine etwas schnellere 5080 mit 24 GB wäre schon geil. Aber 400+ Watt nicht. :ugly: Dann kann ich auch gleich bei meiner 7900XTX bleiben. Ich will ja eigentlich umrüsten auf eine andere Karte um Strom zu sparen. :ugly:

dildo4u
2025-07-01, 10:36:25
Musst dich halt entscheiden der Nachfolger könnte die Performance in 300 Watt bringen aber dann stehst du halt auf der Stelle was Performance angeht mit einer 2027 Karte?

Wobei ich Tests abwarten würde die 5080 nutzt selten das volle TDP, die 5080 Super könnte das eher ausschöpfen.

basix
2025-07-01, 15:01:43
Also eine etwas schnellere 5080 mit 24 GB wäre schon geil. Aber 400+ Watt nicht. :ugly: Dann kann ich auch gleich bei meiner 7900XTX bleiben. Ich will ja eigentlich umrüsten auf eine andere Karte um Strom zu sparen. :ugly:

Die wird kaum 400W saufen: https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5080-test.91176/seite-9#abschnitt_leistungsaufnahme_spiele_youtube_desktop
- 282W im Schnitt
- 314W mit OC +453 MHz / 34 Gbps

Bei der 5080S kriegst also wirklich nur +8GByte Speicher dazu. Alles andere hast du mit der 5080 schon (84 SM, schneller Speicher).

y33H@
2025-07-01, 15:27:20
Wenn Nvidia den Takt erhöht, klingt das nach +10% vs non-Super.

Sardaukar.nsn
2025-07-01, 18:05:10
Die taktet ja auch nicht besser als eine 5080, also wird die Leistung gleich bleiben. OC Potential ganz locker über 3Ghz hast du ja auch mit der normalen 5080.

y33H@
2025-07-01, 21:42:59
Ohne manuelles OC, von Haus aus freilich.

PHuV
2025-07-01, 22:19:51
Und immer noch nichts von der DGX Spark irgendwo zu sehen.
https://news.instant-gaming.com/de/artikel/12898-der-dgx-spark-von-nvidia-konnte-schon-im-juli-auf-den-markt-kommen
https://de.gamegpu.com/Eisen/Nvidia-DGX-Spark-Postupit-im-Juli-zu-verkaufen

Gouvernator
2025-07-01, 22:56:41
Ist wohl von Anfang an teurer Beschiss gewesen. Vermutlich nicht wirklich schneller als die 2 Tokens pro Sekunde wie beim AMDs AI 395+.

Zossel
2025-07-02, 05:00:01
Ist wohl von Anfang an teurer Beschiss gewesen. Vermutlich nicht wirklich schneller als die 2 Tokens pro Sekunde wie beim AMDs AI 395+.

Wenn ich das richtig im Hinterkopf habe kann das NV-Ding kleinere Floating-Points als das AMD-Ding.

davidzo
2025-07-02, 09:16:41
Wenn ich das richtig im Hinterkopf habe kann das NV-Ding kleinere Floating-Points als das AMD-Ding.

Jup, es ist hallt eine 5070 mit weniger als als halber Bandbreite, dafür achtfacher Kapazität an LPDDR5 statt GDDR7. Theoretisch biszu 1PF FP4 mit sparsity. Was kann RDNA3.5 denn überhaupt für Formate?

Gouvernator
2025-07-02, 10:04:04
Ein Lichtblick ist das bei großen KI Rechenzentren für NV bergab geht. Sprich die Balance um durch dreiste Vorenthaltung von besseren Consumer-GPUs , die User in die KI-Fabriken zu drängen scheint nicht aufgegangen zu sein. Die neuen 3Gbit Speicher Chips müssten zügig kommen. Dann ist klar eine 48Gb Grafikkarte viel besser als so ein DGX Spark für das selbe Geld.

Und die User werden auch nicht auf lange Sicht scharenweise in ihre KI-Fabriken gehen. Was nützt einem die fette VEO3 Hardware wenn man damit nicht richtig herumspielen kann wegen Mondpreisen oder Zensur.

GBWolf
2025-07-02, 11:32:17
Inwiefern geht es denn bei den KI Rechenzentren bergab?

Gouvernator
2025-07-02, 12:43:13
Inwiefern geht es denn bei den KI Rechenzentren bergab?
Laut News werden die Konzern Investitionen zurück gefahren. Und Jensen trommelt gerade für Souveräne-KI bei Staaten und versucht wohl auf diese Weise für schwindelerregende KI Kosten noch Kunden zu finden. Am Ende bleibt dem nichts anderes als wieder GeForce vernünftig zu vermarkten. Er kennt doch die Auftragslage auf Jahre hinaus, deswegen sind Super-Refresh Gerüchte so schnell aufgepoppt.

prinz_valium_2
2025-07-02, 13:14:45
Die 5070 Super könnten mit mehr Speicher, mehr Shader und mehr TDP eine wirklich gut Karte werden, wenn der Preis weiterhin stimmt.

Die 5070Ti und 5080 Super sind eher meh. Außer man betreibt sie mit massig Spannung und für das letzte bisschen Leistung. Dass sollte die extrem gestiegene TDP sehr hilfreich sein. Aber will man sowas? Da kann man sich auch eine 4090 oder 4090Ti kaufen...

Hakim
2025-07-02, 13:24:47
Der volle Chip hat beim 5070 nicht sehr viele Einheiten zusätzlich, aber ja die paar Einheiten plus etwas mehr Takt, ich gehe von ~4-5% mehr beim 5070S gegenüber der 5070 aus, besser nicht mehr erhoffen :). Aber immerhin könnte das die beste Super der Generation werden

basix
2025-07-02, 15:11:19
Falls die erhöhten Preise stimmen, ist das schon nicht so toll.

Bisher brachten die Super-Generationen meistens einen gut brauchbaren Leistungssprung oder waren etwas billiger. Jetzt wird der Leistungsprung bei allen Modellen vermutlich ziemlich mager sein (ausser evtl. 5060S), bekommt zwar etwas Speicher aber es wird teurer. Würden die Preise gleich bleiben, wäre es aus meiner Sicht OK.

dildo4u
2025-07-05, 20:22:39
Benchmarks 5050 vs B580/4060/5060

https://www.techpowerup.com/review/gigabyte-geforce-rtx-5050-gaming-oc/34.html

Hakim
2025-07-25, 12:21:36
https://videocardz.com/newz/sk-hynix-confirms-to-be-working-on-24gb-3gb-gddr7-memory-modules-just-in-time-for-rtx-50-super

Die Super Varianten werden immer wahrscheinlicher


Der Kommentar "Won't it be funny if nVidia decided to give us 9GB card?" Was ihr wollt keine 8GB mehr weil zu wenig? Hier habt ihr 9GB :)

Raff
2025-07-25, 13:14:46
Das würde tatsächlich (in Kombination mit Nvidias Speicherverwaltung) reichen, um die allerlästigsten Schwunderscheinungen zu lindern ... :ulol:

MfG
Raff

dildo4u
2025-07-25, 13:29:56
Selbst die 5050 hat doch ein 128 Bit Interface wenn dann kommen 12GB.

Raff
2025-07-25, 13:35:03
9 GiB könnte man halt schon mit 96 Bit machen ... aber bringen wir sie nicht auf weitere Suff- bzw- Koks-Ideen. :ugly:

MfG
Raff

ChaosTM
2025-07-25, 13:43:05
8,5 GB geht nicht? ^^

add.: die 9 wären das fast Äquivalent zu den 3,5 damals

The_Invisible
2025-07-25, 13:54:02
Ja und dann noch eine 5070 15gb und 5080 18gb :freak:

Exxtreme
2025-07-25, 14:31:21
Vielleicht machen sie ja 8,5+0,5 GB draus. :freak:

IghcowGhRBc

bbott
2025-07-25, 17:24:51
Ja und dann noch eine 5070 15gb und 5080 18gb :freak:
Welcher Entwickler wird denn 1-2 GB extra für ein Modell berücksichtigen? Die werden als 12 bzw 16 GB Modell behandelt. Der mehr RAM wird vielleicht in 1-2 Spielen zur Lebzeiten einen Unterschied machen.

Hakim
2025-07-29, 01:07:59
Die Super Varianten sollen Gerüchten zufolge noch dieses Jahr kommen

https://videocardz.com/newz/nvidia-geforce-rtx-50-super-rumored-to-appear-before-2026

basix
2025-07-29, 08:10:29
Das fast wichtigste fehlt noch in der Liste: Die 5060S 12GB und dass die 5060(Ti) 8GB Varianten dann aussterben ;)

Leonidas
2025-07-29, 08:31:56
Unwahrscheinlich. Bisher war NV sehr krausrig mit SUPER-Refeshes im Mainstream-Segment.

Lehdro
2025-07-29, 10:50:43
Welcher Entwickler wird denn 1-2 GB extra für ein Modell berücksichtigen? Die werden als 12 bzw 16 GB Modell behandelt. Der mehr RAM wird vielleicht in 1-2 Spielen zur Lebzeiten einen Unterschied machen.
So funktioniert das aber nicht.

Siehe NV und AMDs 8 GiB Karten, wo die bessere Speicherverwaltung der NV GPUs teilweise tatsächlich das Zünglein an der Waage ist - obwohl das real vielleicht nur 0.5 GiB "mehr" sind.
Das kann dann auch der Unterschied sein ob du FG/MFG/AFMF o.ä. aktivieren kannst ohne das VRAM Budget zu sprengen.

Raff
2025-07-29, 10:59:04
Welcher Entwickler wird denn 1-2 GB extra für ein Modell berücksichtigen? Die werden als 12 bzw 16 GB Modell behandelt. Der mehr RAM wird vielleicht in 1-2 Spielen zur Lebzeiten einen Unterschied machen.

Der VRAM wirkt sich im Grenzbereich immer aus. Das ist ja kein binäres Abkacken wie in der 3D-Urzeit, sondern ein graduelles – leider, muss man sagen, denn gälte immer "Passt/passt nicht", wäre das Thema viel einfacher abzuhaken als mit den tatsächlichen Streaming-Eskapaden.

MfG
Raff

aufkrawall
2025-07-29, 11:15:56
Da können 1-2GB schon mal den Unterschied zwischen "läuft optimal" und "ist schon etwas blöd" ausmachen. Und in dem Bereich ist man mit 16GB bei einigen VRAM-Schleudern mit RT, FG etc. mitunter schon mal. Deshalb graut's mir mittlerweile auch, noch mehr als 600€ oder gar 700€ für eine 16GB-Karte auszugeben. Je teurer, desto ärgerlicher sind Kompromisse.
Hab btw. auch den Verdacht, UE5 versucht unter 80% Gesamtbelegung zu bleiben. Nach etwas Spielzeit scheint sich das immer bei ca. den gleichen Belegungen einzupendeln, auch wenn Hintergrundprogramme einige hundert MB zusätzlich wegfressen. Ist bei eher altertümlichen Renderern wie in Strange Brigade wohl nicht so.

The_Invisible
2025-07-29, 11:33:39
Die 18GB sind dann schon nett, dürfte sogar für Indiana Jones max in PT bei spielbaren Auflösungen für die Karte reichen :D

ChaosTM
2025-07-29, 11:53:42
Könnte hinkommen. Mir fallen viele Spiele auf, die @ Max Settings knapp über 16GB VRAM zumindest allozieren. Wie viel davon wirklich gebraucht wird weiß ich natürlich nicht.
@ 1440p oder (3440x1440) die immer noch die beliebteste Größe ist, könnte 18 durchaus helfen.

Mit 4k Geräten sollte man aber zu 24 greifen. Die werden jetzt schon, zumindest in einer hanbdvoll Spielen, gut "ausgelastet".

Mehr schadet nie, solange der Preisunterschied nicht Apple Dimensionen annimmt bei etwas mehr Speicher. :)

bbott
2025-07-30, 00:32:06
Der VRAM wirkt sich im Grenzbereich immer aus. Das ist ja kein binäres Abkacken wie in der 3D-Urzeit, sondern ein graduelles – leider, muss man sagen, denn gälte immer "Passt/passt nicht", wäre das Thema viel einfacher abzuhaken als mit den tatsächlichen Streaming-Eskapaden.

MfG
Raff
Ich meinte die Spiele Entwickler werden Setting für zb 16 GB optimieren und testen. Die werden doch nicht extra für 18GB Texturen etc auflegen und testen...

Raff
2025-07-30, 13:39:29
Ich meinte die Spiele Entwickler werden Setting für zb 16 GB optimieren und testen. Die werden doch nicht extra für 18GB Texturen etc auflegen und testen...

Jo, das nicht. Aber der Puffer garantiert dir dann halt ein sorgenfreies Dasein, wenn ein Spiel bei 16 GiB "gedeckelt" ist. Dann kannst du beispielsweise DLAA oder (M)FG einschalten, ohne dass es knackt. Das sind so die Dinge, die bei 12-GiB-Karten gerade das Kartenhaus zum Einsturz bringen.

MfG
Raff

aufkrawall
2025-07-30, 14:00:31
Dafür braucht's in Problemtiteln nicht erst FG oder DLAA, da reicht auch schon bloßes RT. In UE5 kann man, bis auf unsinnige Auflösungen, aber ~alles aufrotzen. Gibt schlimmere Kompromisse.

bbott
2025-07-30, 16:34:53
Jo, das nicht. Aber der Puffer garantiert dir dann halt ein sorgenfreies Dasein, wenn ein Spiel bei 16 GiB "gedeckelt" ist. Dann kannst du beispielsweise DLAA oder (M)FG einschalten, ohne dass es knackt. Das sind so die Dinge, die bei 12-GiB-Karten gerade das Kartenhaus zum Einsturz bringen.

MfG
Raff
Ich denke das werden die Spieleentwickler mit Berücksichtigen, DLSS und FG werden immer mehr in den Sys Anforderungen einfließen.
Einzig AMD könnte etwas davon profitieren, da bisher 0,5 bis 1GB mehr benötigt wurde...
Aber ist das mir RDNA4 noch gültig? Die Farbcompression wurde doch verbessert, oder?

aufkrawall
2025-07-30, 16:41:00
Ist eher Wunschdenken, zu glauben, Entwickler würden das sicher kontrollieren können. Deshalb gibt es Texturregler und in manchen Spielen auch Regler zur Regelung der Maximalbelegung, etwa in CoD. Die Verantwortung liegt beim User.

Exxtreme
2025-07-30, 16:42:01
Verlustfreie Kompression verringert den benötigten Speicherplatz nicht da dieser trotzdem vorgehalten werden muss.

mczak
2025-07-30, 17:06:04
Verlustfreie Kompression verringert den benötigten Speicherplatz nicht da dieser trotzdem vorgehalten werden muss.
Das erhöht sogar den Speicherbedarf minimal, wegen zusätzlicher Metadaten. Sollte aber weder bei nvidia noch amd ins Gewicht fallen.
Rein von der Hardware her sollte eigentlich der Speicherbedarf bei allen Herstellern recht ähnlich sein, kann schon Unterschiede geben (z.B. wegen unterschiedlicher Tiling-Anforderungen, fällt vor allem bei vielen kleinen Ressourcen ins Gewicht), der Unterschied liegt da wohl aber eher beim Treiber. Wobei eine Ausnahme ist da womöglich Raytracing, die BVH-Strukturen haben ja kein fix definiertes Format und sind herstellerabhängig (aber natürlich versuchen alle die möglichst klein zu halten).

Gipsel
2025-07-30, 17:20:38
Verlustfreie Kompression verringert den benötigten Speicherplatz nicht da dieser trotzdem vorgehalten werden muss.
Ich nehme Deinen Post mal als Aufhänger für eine Klarstellung, weil Vielen das nicht bewußt ist:
Die meisten Texturkompressionsformate sind verlustbehaftet und garantieren einen bestimmten Kompressionsfaktor. Die belegen also tatsächlich weniger Speicher. Die verlustfreie Kompression betrifft die (für das Spiel/Anwendung eher transparente) Kompression der/des Rendertargets/Framebuffers.

Der_Korken
2025-07-30, 18:10:58
Verlustfreie Kompression verringert den benötigten Speicherplatz nicht da dieser trotzdem vorgehalten werden muss.

Laienhafte Frage, aber wenn ich z.B. für komprimierten Texturen genauso viel Speicher allokieren muss wie für unkomprimierte und lediglich ungenutzte Speicherbereiche am Ende habe, kann ich diese ungenutzten Bereiche nicht ohne Performance-Verlust in den RAM (oder auf die Platte) auslagern?

x-force
2025-07-30, 18:34:52
Ich nehme Deinen Post mal als Aufhänger für eine Klarstellung, weil Vielen das nicht bewußt ist:
Die meisten Texturkompressionsformate sind verlustbehaftet und garantieren einen bestimmten Kompressionsfaktor. Die belegen also tatsächlich weniger Speicher. Die verlustfreie Kompression betrifft die (für das Spiel/Anwendung eher transparente) Kompression der/des Rendertargets/Framebuffers.

das ganze kapitel besonders in hinblick auf den speicherverbrauch wird durch neural texture compression demnächst wohl neu geschrieben.

man könnte argumentieren, dass die 12gb karten damit für die üblichen zwecke ausreichen.

basix
2025-07-30, 19:25:46
Texturen sind nur ein Teilbereich. Klar, effiziente Speichernutzung ist immer gut. Aber deswegen gehen BVH, Beleuchtungscaches, Physik, Animationen, Geometrie usw. nicht weg. Daneben noch Speicherkosten für DLSS, FG, RR usw.

Hier ein Diagramm von AMD: Texturen machen viel aus. Aber da ist auch noch kein FSR4 und RT dabei
https://gpuopen.com/rmv/
https://gpuopen.com/_astro/resource_overview.CxOBsOKA_2mch8a.png

x-force
2025-07-30, 19:37:17
Texturen sind nur ein Teilbereich. https://gpuopen.com/_astro/resource_overview.CxOBsOKA_2mch8a.png

coole grafik!

mein glasauge summiert den orangenen teil auf ca 40-50%. nv spricht von einsparungen im bereich von 90%
das würde in der amd grafik mindestens 6gb für rt, dlss und co freigeben

https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/NTC-Neue-Version-hoeherer-Performance-massiver-VRAM-Reduktion-1477666/

basix
2025-07-30, 19:39:13
Wie gesagt: Effiziente Nutzung ist immer gut ;)

Ein Teil der 90% Einsparung wird gleich wieder aufgefressen, indem man die Texturauflösung konsistent hoch hält. Heute macht man da mehr Kompromisse und reduziert and "unwichtigen" Stellen die Texturauflösung.

12GB Karten werden durch das sicher länger durchalten, klar. Aber 8GByte bleibt tot.

x-force
2025-07-30, 20:43:22
Ein Teil der 90% Einsparung wird gleich wieder aufgefressen, indem man die Texturauflösung konsistent hoch hält.

oder man denkt gleich einen schritt weiter und erzeugt die texturen gerade in der qualität, in der sie nach upscaling noch sinnvoll sind.
ich frage mich nämlich eher, was von 4k ultra texturen bei <1080 zeilen rendertarget bleibt.

mal ein gedanke:
wenn dlss 4 dlaa keine zusätzliche schärfe zu quality mehr gewinnt, kann man sich 4k texturen theoretisch sowieso schenken.

TheAntitheist
2025-07-30, 22:22:52
oder man denkt gleich einen schritt weiter und erzeugt die texturen gerade in der qualität, in der sie nach upscaling noch sinnvoll sind.
ich frage mich nämlich eher, was von 4k ultra texturen bei <1080 zeilen rendertarget bleibt.

mal ein gedanke:
wenn dlss 4 dlaa keine zusätzliche schärfe zu quality mehr gewinnt, kann man sich 4k texturen theoretisch sowieso schenken.
also dein Verständnis von Texturen ist komplett falsch... Wenn du eine Gebäude, sagen wir 20m hoch texturierst und du kein tiling verwenden willst, dann ist die textur so extrem unscharf wenn du vor dem Haus stehst... auch mit 4k. 4k ist gar nichts.
Bei charakteren benutzt man ja jetzt schon fürs gesicht 2k, für den oberkörper 2k, arme und beine 2k...

Dazu kommt ja noch das du auch die Objekte von allen Seiten texturieren musst, also geht da auch viel platz verloren.

guck dir mal bitte UV maps von hero objects an

mczak
2025-07-30, 23:09:59
Laienhafte Frage, aber wenn ich z.B. für komprimierten Texturen genauso viel Speicher allokieren muss wie für unkomprimierte und lediglich ungenutzte Speicherbereiche am Ende habe, kann ich diese ungenutzten Bereiche nicht ohne Performance-Verlust in den RAM (oder auf die Platte) auslagern?
Die im Normalfall ungenutzten Bereiche sind ja nicht einfach am Ende, sondern schön verteilt, weil das ganze ja blockweise geschieht. Die Adresse eines Blockes im Speicher ändert sich nicht, nur innerhalb eines Blockes wird dann eben je nach dem bloss 1/2 oder 1/4 des Speichers belegt (oder auch noch weniger - keine Ahnung wie das heute aussieht).

x-force
2025-07-30, 23:31:19
also dein Verständnis von Texturen ist komplett falsch... Wenn du eine Gebäude, sagen wir 20m hoch texturierst und du kein tiling verwenden willst, dann ist die textur so extrem unscharf wenn du vor dem Haus stehst... auch mit 4k. 4k ist gar nichts.
Bei charakteren benutzt man ja jetzt schon fürs gesicht 2k, für den oberkörper 2k, arme und beine 2k...

wenn, bla, blubb.... du konstruierst.

wie dicht willst du denn an das gesicht ranfahren, um bei <1080p von einer 4k textur zu profitieren?
für welche spiele macht das sinn?

Dovregubben
2025-07-31, 08:43:30
Kein Entwickler baut Texturen für eine bestimmte Speichergröße. Grade auf dem PC ist da eh nichts garantiert, weil Windows und andere Programme sich auch um den Speicher streiten. Mehr Speicher gibt einfach der Engine mehr Spielraum zum Atmen. Indy ist da ja mit 16GB tatsächlich schon am Limit der Skalierung.

bbott
2025-07-31, 16:30:42
Kein Entwickler baut Texturen für eine bestimmte Speichergröße. Grade auf dem PC ist da eh nichts garantiert, weil Windows und andere Programme sich auch um den Speicher streiten. Mehr Speicher gibt einfach der Engine mehr Spielraum zum Atmen. Indy ist da ja mit 16GB tatsächlich schon am Limit der Skalierung.
Also testen die nicht die Grafikeinstellungen und wählen Optionen vor welche für die GPU und RAM geeignet sind, sondern lassen den Zufalls generator entscheiden :D