Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia Blackwell (Nachfolger von Hopper & Ada, 2025)
Troyan
2025-05-20, 13:15:39
~75% des Postings wieder mal am Thema vorbei. Es geht nicht um Rastergrafik oder FSR. Es geht um Manipulation von Reviews.
Wie immer komplett unreflektiertes und zT vom Thema abweichendes Fanboygeseier. Mit dir ist jegliche sachliche Diskussion sinnfrei.
Jaja, immer ablenken, wenn die Wahrheit nicht mehr zu leugnen ist.
Es steht dir doch frei zu zeigen, dass Gamernexus die technischen Fortschritte von nVidia auch in seinen Test sauber abgebildet hat. Und nicht nur so nebenbei, weil die ja nicht wichtig wären.
Ich spiele heute mit Pathtracing. Und das ist möglich trotz dieser Youtuber. Man könnte nun auch fragen, welchen Sinn haben diese Leute, wenn die sich sowieso nicht für den Grafikkartenkäufer abseits von AMD interessieren?
Und das hier ist losgelöst von den anderen Sachen, die Gamernexus macht. Aber Funktionen von GPUs zu ignorieren, weil man kein Bock auf diese hat, ist eben ein reines subjektives Verhalten.
Du kannst ja heute so spielen, wie dieser Channel es dir jahrelang angepriesen hat - Im nativen 4K mit 20 FPS in UE5 Spielen mit Software-Lumen.
Das hat noch keine andere Grafikkarte dieser Generation geschafft: https://x.com/antispack/status/1924799176593842583
MfG
Raff
dildo4u
2025-05-20, 14:50:25
Ohne Undervolt nimmt sie bis zu 150 Watt kein Plan warum das so ausgeliefert wird.
https://youtu.be/4dHcDCvcVzU?si=hVgjlK0KDwuae0nu&t=215
Lehdro
2025-05-20, 14:53:00
Geschichtsrelativierung sondersgleichen.
Es geht um die Graphen mit den Latenzvorteilen, die waren fast ausschliesslich mit DLSS/FG/MFG + Reflex vs alles off. Jo danke. Wenn ich kein DLSS/FG/MFG habe oder gar will, präsentiert NV Reflex äußerst schwach - quasi gar nicht abseits der reinen Erwähnung des Features. Noch dazu ist es Standardmäßig fast immer ausgeschaltet, was komplett Banane ist, aber halt den Vergleich verbessert wenn man FG/MFG zuschaltet - denn dann wird auch Reflex automatisch aktiviert. Ein Schelm...
Und vergess nie, diese Channels haben sich null eingesetzt als AMD Publisher bezahlt hat DLSS aus den Spielen rauszuhalten und PC-Gamer einzig mit dem FSR Schrott zu beglücken. Es waren die PC-Spieler, die das festgestellt haben. Die Reviewer waren von Tag 1 gegen DLSS und somit nie eine Mauer gegen, wie du es sagst, "consumerfeindliches" Verhalten.
Ich zitier dich mal:
Geschichtsrelativierung sondersgleichen.
Es war HWU die ein riesiges Fass deswegen aufgemacht haben. (https://www.youtube.com/watch?v=m8Lcjq2Zc_s)
Es steht dir doch frei zu zeigen, dass Gamernexus die technischen Fortschritte von nVidia auch in seinen Test sauber abgebildet hat. Und nicht nur so nebenbei, weil die ja nicht wichtig wären.
Es steht GN frei zu zeigen was sie für wichtig erachten. Es steht NV nicht zu, zu verlangen das GN Werbung für NV macht. Versteh das doch endlich. Ich schaue PCGH/GN/HWU whatever um zu sehen wie diese die Hardware+Software bewerten und nicht um zu sehen wie NV meint dass PCGH/GN/HWU whatever diese zu bewerten haben.
Ja, NV kann dann bei Nichtgefallen gerne Karten zurückhalten, ihr gutes Recht. Aber Zugriff auf deren Ressourcen an Bedingungen außerhalb von NDA üblichen Sachen zu knüpfen ist moralisch und ethisch halt die unterste Schiene. Die einzige Bedingung sollte folgende sein: Es gibt ein Review zum Releasedatum. Mehr nicht.
ENKORE
2025-05-20, 15:41:11
GN hat doch diverse längliche Videos nur über DLSS und (M)FG gemacht, allein im Februar gab es mehr als ne Stunde an Reviews und Analysen. "Nicht nur so nebenbei"; kek. Insane member scheint es zu treffen :x
Für NV ging es ja einzig und allein darum per MFG FPS zu faken im Launchreview, nichts anderes ist für die relevant und nichts anderes ist der Streitpunkt.
Lehdro
2025-05-20, 16:09:39
Für NV ging es ja einzig und allein darum per MFG FPS zu faken im Launchreview, nichts anderes ist für die relevant und nichts anderes ist der Streitpunkt.
Eben, die Vorgabe war ja laut GN dass die MFG Werte IM SELBEN GRAPH auftauchen MÜSSEN. Nicht von wegen, "testet das bitte mit", nein, sie müssen im selben Graphen auftauchen.
Exakt. Und da das nicht passiert ist, haben sie sämtliche Kontakte zu GN abgebrochen. Die werden jetzt auch keine Samples mehr bekommen.
Meiner Meinung nach wird aber diese Politik, die NV da fährt, dazu führen, dass sie es sich mit allen großen Magazinen verscherzen und das ist einfach Selbstzerstörung.
Jay hats mMn ziemlich genau auf den Punkt gebracht:
https://youtu.be/a_CuOTK-XiY
Hakim
2025-05-20, 17:05:54
Zumindest die Selbstbau Gruppe scheint die Karte Links liegen zu lassen, 5060 die normal meist verkaufte Reihe jeder GF Gen bei MF nur 10+ verkauft. Ich weiß das es sich dennoch insgesamt viel verkaufen wird. Aber es ist unüblich das es so ruhig bei einem Launch ist
Sardaukar.nsn
2025-05-20, 18:05:00
Die deutschen Selbstbauer sind ja auch bereit deutlich mehr Geld für Grafikkarten auszugeben. In anderen Teilen der Welt wird das anders aussehen. Die 5060 wird sich international bei Steam schon irgendwo oben einreihen.
Das hat noch keine andere Grafikkarte dieser Generation geschafft: https://x.com/antispack/status/1924799176593842583
MfG
Raff
Nehm ich als passiv gekühlte Palit kalmX ohne zusätzlichen Stromstecker.
https://lh5.googleusercontent.com/proxy/Hv4NZkLmxBNZO_gO91RMoSKkl7Cd8iy4Pa14V9jzDAzW15zZZlmq9jjkpOVZlWuAbWNla5IeuWd33Mm4 nSkpv1vF0in_wPfRGTRiRDzVOsppQUkcqAsi3Xskx8Kde37AaZ-29rM
x-force
2025-05-20, 18:17:10
Nehm ich als passiv gekühlte Palit kalmX ohne zusätzlichen Stromstecker.]
das wäre die langersehnte 5030, dafür fehlt aber der 08er die
SentinelBorg
2025-05-20, 22:43:04
Jetzt lasst doch bitte das aktuell weltweit wertvollste Unternehmen in Ruhe ihr Miesepeter!!!111elf Die können sich doch gar nicht wehren gegen die pöhsen Steves.
Hakim
2025-05-21, 12:46:57
https://www.computerbase.de/news/grafikkarten/rtx-5080-super-angebliche-spezifikationen-mit-24-gb-vram-aufgetaucht.92782/
Bisher nur zum 5080 Super Gerüchte, Frage mich wann es zum 5070S gibt
An die Voll-Nerds hier (ausdrücklich positiv gemeint), ich bräuchte mal Feedback von euch. Findet ihr das geil? =) Resolution Scaling:
https://www.pcgameshardware.de/Geforce-RTX-5060-Grafikkarte-281134/Tests/Release-Test-Benchmarks-1472370/2/#a3
"Wer eine Grafikkarte für viele Jahre kauft, sollte die Ergebnisse daher besonders ernst nehmen. Maßgeblich ist der Einbruch mit steigender Auflösung, bei dem es klare Sieger und Verlierer gibt. So lassen die Geforce RTX 4060 und RTX 5060 in höheren Auflösungen signifikant Federn, während die Schere bei den anderen Grafikkarten nicht so weit aufgeht. Ob das nun primär an der Cache-Größe, Speichermenge oder PCIe-Anbindung liegt, können wir nicht mit Sicherheit sagen - wohl aber, dass die Geforce RTX 5060 Ti 16GB, Arc B580 12GB und sogar die alte Geforce RTX 3060 12GB diese Probleme nicht haben."
MfG
Raff
Schade, DGX Spark verzögert sich, und ich dachte, ich könnte schon Juni Juli eins in den Händen halten
hwluxx - DGX Spark - Mehr Vielfalt ab der zweiten Generation (https://www.hardwareluxx.de/index.php/news/hardware/komplettsysteme/66201-dgx-spark-mehr-vielfalt-ab-der-zweiten-generation.html)
Warum sich der GB10 Grace Blackwell Superchips derart verzögert hat, darüber kann nur spekuliert werden. Es gibt Gerüchte, die von einem Teildefekt einer Komponente sprechen, der wiederum dafür sorgt, dass der Chip nicht wie geplant in den Spark-Systemen eingesetzt werden kann. Ein Respin des Chips, als das Redesign, neuer Tape-Out, Validierung etc. kosten Monate und sorgen daher für Verzögerungen.
MSABK
2025-05-21, 23:09:28
Hmm, vlt auch der Grund warum keine kleinen Chips für Windows on ARM vorgestellt wurden?
An die Voll-Nerds hier (ausdrücklich positiv gemeint), ich bräuchte mal Feedback von euch. Findet ihr das geil? =)
Ohne den Artikel gelesen zu haben. Die Grafik ist nicht besonders gut - same old, Balken für Auflösungen skaliert wie üblich. Was du herausstellen willst, ist ein Resolution Score oder sowas wie ein Zukunftsfähigkeitsscore.
So wie es jetzt ist, ist es einfach das Performanceranking, und man muss selber schätzen, oder berechnen, wie viel die Karte nun verliert.
Was auch interessant wäre, da ihr ja Daten aus Jahrzehnten habt: ein statistischer Score welcher den tatsächlichen Wert der Verdopplung von VRAM über all die Jahre ermittelt: z.B. Verdopplung RAM bringt im Schnitt 1.5 Jahre mehr bei AMD, und 2 bei Nvidia. Ein Score für Nutzungsdauer bzgl verschiedener Komponenten.
Das sind die Dinge, die mir gerade auf dem Klo einfallen :biggrin:
An die Voll-Nerds hier (ausdrücklich positiv gemeint), ich bräuchte mal Feedback von euch. Findet ihr das geil? =) Resolution Scaling:
https://www.pcgameshardware.de/Geforce-RTX-5060-Grafikkarte-281134/Tests/Release-Test-Benchmarks-1472370/2/#a3
"Wer eine Grafikkarte für viele Jahre kauft, sollte die Ergebnisse daher besonders ernst nehmen. Maßgeblich ist der Einbruch mit steigender Auflösung, bei dem es klare Sieger und Verlierer gibt. So lassen die Geforce RTX 4060 und RTX 5060 in höheren Auflösungen signifikant Federn, während die Schere bei den anderen Grafikkarten nicht so weit aufgeht. Ob das nun primär an der Cache-Größe, Speichermenge oder PCIe-Anbindung liegt, können wir nicht mit Sicherheit sagen - wohl aber, dass die Geforce RTX 5060 Ti 16GB, Arc B580 12GB und sogar die alte Geforce RTX 3060 12GB diese Probleme nicht haben."
MfG
Raff
Das ist eine sehr gute Idee,
schön wäre auch wenn die Gängigen 21:9 Auflösungen mit aufgenommen werden könnten,
wobei ich allerdings k.a. habe wie verbreitet die mittlerweile sind.
Bisher rechne ich das ganze immer per Dreisatz über die Gesamtpixeldichte aus wo grob die Native Leistung liegt für Breitbild :freak:
Generell wäre es eine gute Informationsquelle für Leute wie mich die (leider) regelmäßig ihre Monitore tauschen.
Meine innere Stimme will mich zurzeit dazu überreden meinen 45“ LG OLED Monitor gegen den neuen LG 45“ Monitor mit 5K zu tauschen, der alte ist ja bereits 1,5 Jahre alt.:freak:
The_Invisible
2025-05-22, 13:08:10
Na gut bei 5k2k immer die schnellste GPU was gibt, fertig :freak:
Joa,
wäre trozdem schön zu Wissen wie die verschiedenen Karten bei 2560x1080/3440x1440/5120x2160 performen.
Sehr grade ich bin Blind zwei WQHD Auflösungen sind ja drinnen Raff, also ist super so ..:freak:
ich gehe dann mal in den Keller mich schämen
Lehdro
2025-05-22, 14:04:33
An die Voll-Nerds hier (ausdrücklich positiv gemeint), ich bräuchte mal Feedback von euch. Findet ihr das geil? =) Resolution Scaling:
Der Test ist gut und wichtig, aber die Präsentation ist armselig (sorry).
Was willst du darstellen? Wie gut die GPU skaliert mit höheren Auflösungen?
Dann dreh dein Diagramm um. Zeige absolute Negativwerte (in Prozent, Basis ist 1080p). Welche Karte verliert am wenigsten Performance in der jeweiligen Auflösung - die dann oben im Chart, dann nach unten absteigend.
Oder als einfachere Lösung im derzeitigem Format:
Du zeigst in deinem Diagramm welche Karte wie skaliert, aber halt mehr oder weniger relativ zueinander - weil du halt ohne Mausover nur die FPS siehst. Vielleicht solltest du die FPS als Mouseover festlegen und die % als sichtbare Basis? Denn wichtiger wäre es mMn zu zeigen, welche Karte absolut am wenigsten (oder am meisten) verliert, weil dass der Punkt ist den du eigentlich herausarbeiten willst, oder? Dafür sollten die Prozentwerte im Vordergrund stehen (natürlich mit derselben Basis pro Karte), weil man die direkt vergleichen kann, die FPS aber nur relativ. Ich hoffe das ergibt für dich Sinn.
Gutes Feedback, ich danke euch! :up: Ich werde mal darüber brüten.
MfG
Raff
x-force
2025-05-23, 13:06:35
Gutes Feedback, ich danke euch! :up: Ich werde mal darüber brüten.
MfG
Raff
ich halte die aussagekraft des ganzen für fragwürdig.
der zusammenhang zur zukunftsfähigkeit ist unklar.
die rechenlast wird in zukunft nicht linear skalieren, sondern noch stärker richtung tensor, ray und co gehen.
wenn aktuell die rops bei 1080p voll sind, aber erst die hälfte der rt cores ausgelastet sind, skaliert es auf 4k schlecht, aber bei gleicher auflösung ist noch potential für zusätliche rechenlast.
-> wenn eine karte wenig verliert, war man auf niedriger auflösung entweder ineffizient und recheneinheiten sind nicht voll ausgelastet, oder im cpu limit.
Troyan
2025-05-23, 14:46:06
An die Voll-Nerds hier (ausdrücklich positiv gemeint), ich bräuchte mal Feedback von euch. Findet ihr das geil? =) Resolution Scaling:
https://www.pcgameshardware.de/Geforce-RTX-5060-Grafikkarte-281134/Tests/Release-Test-Benchmarks-1472370/2/#a3
"Wer eine Grafikkarte für viele Jahre kauft, sollte die Ergebnisse daher besonders ernst nehmen. Maßgeblich ist der Einbruch mit steigender Auflösung, bei dem es klare Sieger und Verlierer gibt. So lassen die Geforce RTX 4060 und RTX 5060 in höheren Auflösungen signifikant Federn, während die Schere bei den anderen Grafikkarten nicht so weit aufgeht. Ob das nun primär an der Cache-Größe, Speichermenge oder PCIe-Anbindung liegt, können wir nicht mit Sicherheit sagen - wohl aber, dass die Geforce RTX 5060 Ti 16GB, Arc B580 12GB und sogar die alte Geforce RTX 3060 12GB diese Probleme nicht haben."
MfG
Raff
Die Aussage ist fragwürdig, da die Zukunft UE5 ist und mehr als 1080p hier sowieso nicht machbar ist.
Doom Dark Ages benötigt nicht mehr als 8GB in 1440p und die 5060 TI 8GB ist 82% schneller als die 3060 : https://www.techpowerup.com/review/doom-the-dark-ages-performance-benchmark/5.html
Merke: Ich habe immer Schlechtwetterkirschen gegen Schönwetterkirschenpflücker im Köcher: https://www.pcgameshardware.de/Doom-The-Dark-Ages-Spiel-74718/Specials/Test-Release-Review-Steam-Benchmarks-Raytracing-1471919/3/#a1 ;)
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=93055&stc=1&d=1748005890
MfG
Raff
Platos
2025-05-23, 18:11:27
Also mir gefallen die Tests bzw. Diagramme (aber dem Vorschlag von oben spreche ich nicht dagegen).
Finde das gut, dass du dich gut auf Speicher konzentrierst und aufzeigst, dass die Speicherkrüppel eben genau das sind.
Wird brauchen endlich (bezahlbare) 24/32GB Grafikkarten :)
An die Voll-Nerds hier (ausdrücklich positiv gemeint), ich bräuchte mal Feedback von euch. Findet ihr das geil? =) Resolution Scaling:
https://www.pcgameshardware.de/Geforce-RTX-5060-Grafikkarte-281134/Tests/Release-Test-Benchmarks-1472370/2/#a3
"Wer eine Grafikkarte für viele Jahre kauft, sollte die Ergebnisse daher besonders ernst nehmen. Maßgeblich ist der Einbruch mit steigender Auflösung, bei dem es klare Sieger und Verlierer gibt. So lassen die Geforce RTX 4060 und RTX 5060 in höheren Auflösungen signifikant Federn, während die Schere bei den anderen Grafikkarten nicht so weit aufgeht. Ob das nun primär an der Cache-Größe, Speichermenge oder PCIe-Anbindung liegt, können wir nicht mit Sicherheit sagen - wohl aber, dass die Geforce RTX 5060 Ti 16GB, Arc B580 12GB und sogar die alte Geforce RTX 3060 12GB diese Probleme nicht haben."
MfG
Raff
Ich fand und finde Auflösungsskalierung sehr wichtig. Egal ob in der Voodoo-Zeit oder später der GeForce-4-Ära. Okay Antialiasing wurde war damals noch echt (Super- oder zumindest Multi-Sampling), selbst eine 5900 XT (also eine langsam getaktete 5900) hatte dank 256-Bit-Interface die Fähigkeit, hohe Settings inklusive Antialiasing einfach zu fressen ohne groß Federn zu lassen. Die Karte war bei meinen Spielen auch in höheren Auflösungen gut brauchbar. Ein ähnliches Erlebnis hatte ich mit der 285 GTX 2 GB (ein Vorteil als damaliger EVGA-Mitarbeiter). Das Ding fraß einfach alles. AA, AF, höhere Auflösungen, wurscht. Also letztlich in beiden Fällen eine Art CPU-Limitierung.
Die GTX 9800 die ich zuvor hatte, war dank Unteraktung bei fixen 40% Lüfter-Drehzahl leise und vergleichsweise leistungsstark für ihre Zeit, aber Effekte und Auflösungen skalierten sozusagen linear.
So wie ich das sehe, skaliert die 5600 je nach Spiel sublinear. Das ist scheiße. Auch rein als Techniker finde ich es cringe, ein Produkt so unausgewogen zu gestalten. 5060 mit 12 GB RAM zu dem Preis und selbst jeder Steve würde Loblieder singen.
5060 Ti ausschließlich mit 16, eine 5070 mit 18 GB, und wir würden Raff nur noch grinsen sehen. Die Ti mit 24, die 5080 auch, die 5090 weiterhin mit ihren 32 GB, jeder würde Nvidia abfeiern. Und die 50-er Serie als echte Entwicklung preisen.
Und dann laucht NV eine 5050 mit 8 und eine 5040 mit 6 GB RAM zum entsprechenden Preis. Presse-Echo: Moderne Technologie auch endlich für Budget-Gamer, bei dem Speicher gibts natürlich Einschränkungen aber was will man machen.
Lawmachine79
2025-05-24, 00:33:54
Ich fand und finde Auflösungsskalierung sehr wichtig. Egal ob in der Voodoo-Zeit oder später der GeForce-4-Ära. Okay Antialiasing wurde war damals noch echt (Super- oder zumindest Multi-Sampling), selbst eine 5900 XT (also eine langsam getaktete 5900) hatte dank 256-Bit-Interface die Fähigkeit, hohe Settings inklusive Antialiasing einfach zu fressen ohne groß Federn zu lassen. Die Karte war bei meinen Spielen auch in höheren Auflösungen gut brauchbar. Ein ähnliches Erlebnis hatte ich mit der 285 GTX 2 GB (ein Vorteil als damaliger EVGA-Mitarbeiter). Das Ding fraß einfach alles. AA, AF, höhere Auflösungen, wurscht. Also letztlich in beiden Fällen eine Art CPU-Limitierung.
Die GTX 9800 die ich zuvor hatte, war dank Unteraktung bei fixen 40% Lüfter-Drehzahl leise und vergleichsweise leistungsstark für ihre Zeit, aber Effekte und Auflösungen skalierten sozusagen linear.
So wie ich das sehe, skaliert die 5600 je nach Spiel sublinear. Das ist scheiße. Auch rein als Techniker finde ich es cringe, ein Produkt so unausgewogen zu gestalten. 5060 mit 12 GB RAM zu dem Preis und selbst jeder Steve würde Loblieder singen.
5060 Ti ausschließlich mit 16, eine 5070 mit 18 GB, und wir würden Raff nur noch grinsen sehen. Die Ti mit 24, die 5080 auch, die 5090 weiterhin mit ihren 32 GB, jeder würde Nvidia abfeiern. Und die 50-er Serie als echte Entwicklung preisen.
Und dann laucht NV eine 5050 mit 8 und eine 5040 mit 6 GB RAM zum entsprechenden Preis. Presse-Echo: Moderne Technologie auch endlich für Budget-Gamer, bei dem Speicher gibts natürlich Einschränkungen aber was will man machen.
Ich habe von der 5900XT gelernt, dass es sich nicht lohnt, Fanboy zu sein. Seitdem stehe ich immer auf der Seite des Siegers.
x-force
2025-05-24, 01:47:46
so schön die wünsche auch sind, wir haben noch nicht weihnachten und das pferd springt nur so hoch wie es muss.
hätte amd einen doppelten navi 48 gebracht, stünde der 5090 ein gegner gegenüber.
über die salvages hätte nvidia auch überhalb der 5070ti einen gegner,
mit den entsprechenden salvages würde sich auch die lücke von 5080 zu 5090 schließen.
Platos
2025-05-24, 10:12:01
Insofern ist es in gewisser Weise sogar schädlich, ein Fanboy zu sein, denn dadurch muss AMD also quasi nicht besonders hoch springen, die fressen sowieso alles...(etwas übertrieben gesagt).
Das ist wie eine sich selbst erhaltende Blase. Wobei jetzt mit der Blackwellgeneration hätte AMD mit ihren neuerungen (die zum Teil durchaus sehr positiv sind) durchaus ein riesen Potential gehabt, mit viel Speicher und günstigem Preis ordentlich Druck zu machen und Marktanteile zu gewinnen.
Aber augenscheinlich will das keiner der 2 Marktteilnehmer neben nvidia. AMD hätte diese Generation wirklich richtig tief in nvidiaa Wunde drücken können. Aber sie lassen es bleiben und spielen Trittbrettfahrer.
basix
2025-05-29, 09:25:17
Nvidia Quartalszahlen: 44.1 Mrd. Umsatz
https://nvidianews.nvidia.com/news/nvidia-announces-financial-results-for-first-quarter-fiscal-2026
Wenn das so weiter geht, machen die im Fiskaljahr 2026 noch 200 Mrd. Umsatz.
Noch heftig:
Q2/2026 Outlook: Revenue is expected to be $45.0 billion, plus or minus 2%. This outlook reflects a loss in H20 revenue of approximately $8.0 billion due to the recent export control limitations.
Und auch interessant:
Die Gaming Sparte hat ein Rekordergebnis erreicht.
AffenJack
2025-05-29, 10:19:10
Nvidia Quartalszahlen: 44.1 Mrd. Umsatz
https://nvidianews.nvidia.com/news/nvidia-announces-financial-results-for-first-quarter-fiscal-2026
Wenn das so weiter geht, machen die im Fiskaljahr 2026 noch 200 Mrd. Umsatz.
Noch heftig:
Und auch interessant:
Die Gaming Sparte hat ein Rekordergebnis erreicht.
Die 8 Mrd weniger Umsatz sind einfach nur absurd. Einfach mal AMDs Umsatz, bzw zwei Drittel von Intel verloren und trotzdem erwartet man Umsatz nah am rekordquartal.
Aber Gamin überrascht mich am meisten. Hätte nicht gedacht, dass man wirklich soviel Gaming Blackwell ausgeliefert hat bei der Verfügbarkeitssituation.
basix
2025-05-29, 12:03:38
Bei Gaming könnte es mehrere Gründe geben:
- Generell erhöhte MSRPs
- Lovelace Lieferbarkeit Austrocknung vor Blackwell Release = Mehr unmittelbarer Bedarf
- Nintendo Switch 2
- Gaming-GPUs werden vermehrt in AI-Verbtriebskanäle geliefert
Wobei jetzt mit der Blackwellgeneration hätte AMD mit ihren neuerungen (die zum Teil durchaus sehr positiv sind) durchaus ein riesen Potential gehabt, mit viel Speicher und günstigem Preis ordentlich Druck zu machen und Marktanteile zu gewinnen.
Aber augenscheinlich will das keiner der 2 Marktteilnehmer neben nvidia. AMD hätte diese Generation wirklich richtig tief in nvidiaa Wunde drücken können. Aber sie lassen es bleiben und spielen Trittbrettfahrer.
AMDs Problem ist, dass sie noch nicht die entsprechende Stärke haben, um solch einen Power-Move zu machen. Die 9070er Karten sind preislich attraktiver als die Blackwell Gegenstücke, aber haben halt auch ein Feature und Mindshare Defizit.
Bei den 9060ern sieht es zudem etwas positiver aus. Die 9060XT 16GB für 349$ MSRP dürfte attraktiver sein als die 429$ der 5060Ti 16GB. Die relative preisliche Positionierung dürfte sehr ähnlich wie 9070XT zu 5070Ti sein, doch hier ist man generell sensitiver auf ein paar Euro Unterschied.
Was ich also vermute:
AMD will mit RDNA4 die Grundlagen für die nächsten Schritte legen. Gute Architektur ohne grössere Schwächen, Feature-Updates in HW (Matrix-Acceleration, RT) und SW (Lücken bei DLSS schliessen) und etwas bessere P/L als Nvidia. Das gibt mal positive Presse und Nutzerimpressionen. Blackwell hat zudem einiges an Negativpresse erhalten. Allein schon aus diesen Gründen wird AMD gut Marktanteile gewinnen. Bei der nächsten Generation werden sie wahrscheinlich 3 anstatt 2 Chips haben (ich vermute 128/192/256bit). Damit dürfte man den Bereich von 300...800$ abdecken können. Vielleicht sogar bis 1000$. AMD wird hier vermutlich nicht gross von der RDNA4-Strategie abweichen: Den Grossteil des Marktes bedienen. Letzte Feature-Lücken schliessen und generell besseres P/L bieten. Hier könnte AMD aber dann einen Gang höher schalten: >1.2x besseres P/L als Nvidia bei ~Feature-Parität kann man nicht mehr wegdiskutieren.
ENKORE
2025-05-30, 21:44:21
Seit Umstieg auf die Blackwell habe ich öfter das Problem, dass nach ca 20 Sekunden aus dem Aufwachen aus dem Standby die Bildschirme mehrmals Flackern. Im Eventlog finden sich korrespondierende Einträge. Meistens dauert es auch ein paar Sekunden länger als normal aus dem Standby aufzuwachen. *
A caller specified the SDC_FORCE_MODE_ENUMERATION flag in a call to the SetDisplayConfig() API
Im NV-Forum beschwert sich jemand bei Treiber 572.60 drüber (bin bei 576.28 aktuell):
https://www.nvidia.com/en-us/geforce/forums/game-ready-drivers/13/558073/geforce-grd-57260-feedback-thread-released-22725/3508488/
Kennt das jemand?
* Gerade eben z.B. hat's viermal geflackert:
21:24:06 RTC-Sync
21:24:17 The system has returned from a low power state.
21:24:54 SDC_FORCE_MODE_ENUMERATION
21:24:55 SDC_FORCE_MODE_ENUMERATION
21:25:06 SDC_FORCE_MODE_ENUMERATION
21:25:07 SDC_FORCE_MODE_ENUMERATION
basix
2025-06-12, 22:27:34
Noch interessante Details zu GB300 (Blackwell Ultra):
- Nvidia erhöht FP4 Duchsatz um 50%
- Im Gegenzug wird FP64 und INT8 massiv gestutzt
https://resources.nvidia.com/en-us-blackwell-architecture
1/32stel ist wirklich nur noch Basiskompatibilität. Meine Titan V lacht den "Ultra-Superchip" aus. ;D
MfG
Raff
Zossel
2025-06-12, 22:39:03
- Im Gegenzug wird FP64 und INT8 massiv gestutzt
Da werden sich diejenigen freuen die Wissenschaft durch Ideologie ersetzen wollen.
Da werden sich diejenigen freuen die Wissenschaft durch Ideologie ersetzen wollen.
Codename des Projekts ist also der große Mathematiker, Denker und Physiker Donald J. Dumb?
MfG
Raff
AffenJack
2025-06-13, 13:26:17
Noch interessante Details zu GB300 (Blackwell Ultra):
- Nvidia erhöht FP4 Duchsatz um 50%
- Im Gegenzug wird FP64 und INT8 massiv gestutzt
https://resources.nvidia.com/en-us-blackwell-architecture
Hab mich schon gefragt, wie es sein konnte, dass Dense FP4 gestiegen ist ohne das etwas anderes sich ändert. Jetzt weiß man immerhin was eingespart wurde. Also kann man die FP64 Units wohl relativ einfach umbauen, so dass am Ende mehr FP4 draus wurde.
Ob Nvidia jetzt FP64 komplett fallen lässt? AMD dürfte das mit verschiedenen Chiplets abbilden, aber bei Nvidia siehts danach aus, dass man sich komplett davon und damit eigentlich dem HPC Markt zurück zieht.
basix
2025-06-13, 13:55:11
Da bereits HPC Supercomputer mit Rubin angekündigt worden sind, dürfte Rubin eher wie B200 ausgestattet sein:
https://blogs.nvidia.com/blog/blue-lion-vera-rubin/
Leonidas
2025-06-18, 10:22:13
5090 DD
GB202-240
PG145 SKU 40
*for China market only
https://x.com/Zed__Wang/status/1935169786201391390
Leonidas
2025-06-18, 13:04:14
RTX 5090 DD?
PG145-SKU40
GB202-240-K*-A1
21760FP32
384-bit GDDR7 24G 28Gbps
575W
and there's a surprise.
https://x.com/kopite7kimi/status/1935253429334806686
OgrEGT
2025-06-18, 19:31:04
RTX 5090 DD?
PG145-SKU40
GB202-240-K*-A1
21760FP32
384-bit GDDR7 24G 28Gbps
575W
and there's a surprise.
https://x.com/kopite7kimi/status/1935253429334806686
Was könnte die Surprise sein?
Dass das Teil auch außerhalb China vermarktet wird oder dass das Teil mit 384bit gar nicht langsamer als die normale 5090 ist :ulol:
aceCrasher
2025-06-19, 16:21:02
Was könnte die Surprise sein?
Dass das Teil auch außerhalb China vermarktet wird oder dass das Teil mit 384bit gar nicht langsamer als die normale 5090 ist :ulol:
Da fragt man sich wirklich ob 384bit mit 3GB Modulen nicht von vornherein besser gewesen wäre. Man hätte trotzdem ausreichend Bandbreite durch GDDR7 und sogar mehr Speicher, gleichzeitig weniger Chipfläche durch das schmalere SI und ein weniger komplexes PCB. Vermutlich spricht die Verfügbarkeit der 3GB Module dagegen.
Lehdro
2025-06-19, 16:40:21
Da fragt man sich wirklich ob 384bit mit 3GB Modulen nicht von vornherein besser gewesen wäre. Man hätte trotzdem ausreichend Bandbreite durch GDDR7 und sogar mehr Speicher, gleichzeitig weniger Chipfläche durch das schmalere SI und ein weniger komplexes PCB. Vermutlich spricht die Verfügbarkeit der 3GB Module dagegen.
Den 512 Bit Bus kann man mit 3 GiB Modulen auch gut verhökern - sogar doppelseitig. Das Potenzial daraus eine 96 GiB RTX Pro 6000 (https://www.nvidia.com/de-de/products/workstations/professional-desktop-gpus/rtx-pro-6000/) zu basteln wollte sich NV sicherlich nicht entgehen lassen.
dildo4u
2025-06-24, 15:42:19
5050 8GB für Juli angekündigt 250$
https://videocardz.com/newz/nvidia-geforce-rtx-5050-announced-with-8gb-gddr6-249-price-launching-mid-to-late-july
Find ich eigentlich ne coole Ergänzungskarte für nicht-Spiele-PCs.
The_Invisible
2025-06-24, 16:18:28
Alles relativ, mein Bruder hat mal längere Zeit mit RX550 und dann RTX3050 gezockt :freak:
aceCrasher
2025-06-24, 16:24:41
Alles relativ, mein Bruder hat mal längere Zeit mit RX550 und dann RTX3050 gezockt :freak:
Wenn man nur LoL, CS, Valorant, etc. spielt reichen solche Karten ja häufig auch völlig aus.
mczak
2025-06-25, 15:21:07
Finde die Karte auch nicht so übel. Die RTX 5060 und 5060Ti 8GB haben ja den Makel dass sie eben unter Speichermangel leiden und trotzdem recht teuer sind, deswegen lautet die Empfehlung ja immer man soll zu 16GB Karten greifen. Die 5050 hat natürlich genau so Speichermangel, die Preisdifferenz zur günstigsten 16 GB Karte (bei nvidia) ist jetzt aber schon ziemlich massiv (249$ zu 429$ MSRP), also klar ein anderes Preissegment, da kann man wohl eher damit leben.
Performancemässig würde ich meinen erreicht wohl so 70% der 5060 und 60% der 5060Ti 8GB, sollte wohl ganz knapp unterhalb einer 4060 landen (die hat 20% mehr Shadereinheiten, dafür etwas weniger Takt und etwas weniger Speicherbandbreite). Als Einstiegskarte ganz ok (man kann natürlich bemängeln dass da beim Preis/Leistungsverhältnis (zu MSRP-Preisen) der Fortschritt gegenüber der 4060 wohl bloss minimal ist, aber immerhin).
Ausserdem ist da der Chip sicher schön klein (wohl so 140mm²?), die Karten sehen auch nicht sehr aufwendig aus - sehr profitabel...
Fragt sich ob AMD da auch noch was bringen wird (in Form eines teildeaktivierten N44).
Schau dir das mal an und wiederhole, dass das ein gutes Paket ist. ;)
5WZqT_ym6Z0
MfG
Raff
x-force
2025-06-25, 22:00:05
Schau dir das mal an und wiederhole, dass das ein gutes Paket ist. ;)
ohne rdna4 zum gleichen preis ist es die beste alternative im low end.
dildo4u
2025-06-26, 06:28:40
Diese Low End Karten haben mher Sinn gemacht als NV nicht am Cuda Core Count gespart hat jetzt müssen sie den Takt und TDP erhöhen was passive 75 Watt Modelle verhindert.
Raff war hier erstaunlich angetan
https://www.pcgameshardware.de/Geforce-RTX-3050-6GB-Grafikkarte-280241/Tests/6GB-vs-8GB-RTX-3050-vs-RX-6600-vs-A580-1444664/4/
Hakim
2025-06-29, 12:03:15
Wie schon seit Ewigkeiten spekuliert wie die 5070S aussehen könnte
https://videocardz.com/newz/nvidia-geforce-rtx-5070-super-reportedly-features-6400-cuda-cores-and-18gb-memory
Pitman
2025-06-29, 12:48:45
Nicht schlecht aber diese 5070 super wird doch mehr verbrauchen als eine 4070Ti super bzw. dann genauso viel verbrauchen.
Hakim
2025-06-29, 12:57:49
Ja 275W erscheint mir auch etwas viel zumal der direkte Konkurrent der in der selben Performance Region sein wird, die 9070, bei 220W liegt. Aber GeForce typisch wird es sich im Durchschnitt eher oft darunter liegen, mal sehen.
Die 5070 bei 250W, schluckt bei CB auch im Durchschnitt 222W.
Leonidas
2025-06-29, 16:12:02
Die Grund-Spezifikationen zu GeForce RTX 5070 Super, 5070 Ti Super & 5080 Super
https://www.3dcenter.org/news/geruechtekueche-die-grund-spezifikationen-zu-geforce-rtx-5070-super-5070-ti-super-5080-super
Troyan
2025-06-29, 16:16:41
Ja 275W erscheint mir auch etwas viel zumal der direkte Konkurrent der in der selben Performance Region sein wird, die 9070, bei 220W liegt. Aber GeForce typisch wird es sich im Durchschnitt eher oft darunter liegen, mal sehen.
Die 5070 bei 250W, schluckt bei CB auch im Durchschnitt 222W.
Maximale Verbrauchsangabe hat null Aussagekraft seit Lovelace. Man will sich nur absichern, dass man nicht langsamer als die GPUs mit weniger Speicher wird, weil die GPUs beim selben MaxTDP-Limit stärker runtertakten würden.
Ansonsten kommt jetzt der GDDR7 Vorteil durch, dass man 3GB Chips verbauen kann.
=Floi=
2025-06-29, 16:19:15
4gb wären ein vorteil. 3gb sind der reinste joke.
#warum soll max tdp keine aussagekraft mehr haben?
Troyan
2025-06-29, 16:26:29
50% mehr Speicher reichen vollkommen. Mehr als 16GB benötigt niemand unter einer 5090.
Weil der Stromverbrauch seit Lovelace nunmal vom Spiel und Auflösung abhängt. Da laufen Spiele auch mal mit 1/3 weniger als MaxTDP wie z.B. Doom Dark Ages - in 1440p läuft die 5070TI mit 240W https://youtu.be/diS68yNQCIg?t=475 und z.B. Monster Hunter sind es 210W https://youtu.be/UoZnL4gbc9Y?t=551
Hakim
2025-06-29, 16:59:00
ja schon gibt aber immer noch Spiele die nahe am Max TPD sind oder gar ganz ausreizen. Das wird wenn man es hoch auf 275W stellt und den Takt erhöhen will wohl auch noch geben.
Matrix316
2025-07-01, 10:25:22
Also eine etwas schnellere 5080 mit 24 GB wäre schon geil. Aber 400+ Watt nicht. :ugly: Dann kann ich auch gleich bei meiner 7900XTX bleiben. Ich will ja eigentlich umrüsten auf eine andere Karte um Strom zu sparen. :ugly:
dildo4u
2025-07-01, 10:36:25
Musst dich halt entscheiden der Nachfolger könnte die Performance in 300 Watt bringen aber dann stehst du halt auf der Stelle was Performance angeht mit einer 2027 Karte?
Wobei ich Tests abwarten würde die 5080 nutzt selten das volle TDP, die 5080 Super könnte das eher ausschöpfen.
basix
2025-07-01, 15:01:43
Also eine etwas schnellere 5080 mit 24 GB wäre schon geil. Aber 400+ Watt nicht. :ugly: Dann kann ich auch gleich bei meiner 7900XTX bleiben. Ich will ja eigentlich umrüsten auf eine andere Karte um Strom zu sparen. :ugly:
Die wird kaum 400W saufen: https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5080-test.91176/seite-9#abschnitt_leistungsaufnahme_spiele_youtube_desktop
- 282W im Schnitt
- 314W mit OC +453 MHz / 34 Gbps
Bei der 5080S kriegst also wirklich nur +8GByte Speicher dazu. Alles andere hast du mit der 5080 schon (84 SM, schneller Speicher).
y33H@
2025-07-01, 15:27:20
Wenn Nvidia den Takt erhöht, klingt das nach +10% vs non-Super.
Sardaukar.nsn
2025-07-01, 18:05:10
Die taktet ja auch nicht besser als eine 5080, also wird die Leistung gleich bleiben. OC Potential ganz locker über 3Ghz hast du ja auch mit der normalen 5080.
y33H@
2025-07-01, 21:42:59
Ohne manuelles OC, von Haus aus freilich.
Und immer noch nichts von der DGX Spark irgendwo zu sehen.
https://news.instant-gaming.com/de/artikel/12898-der-dgx-spark-von-nvidia-konnte-schon-im-juli-auf-den-markt-kommen
https://de.gamegpu.com/Eisen/Nvidia-DGX-Spark-Postupit-im-Juli-zu-verkaufen
Gouvernator
2025-07-01, 22:56:41
Ist wohl von Anfang an teurer Beschiss gewesen. Vermutlich nicht wirklich schneller als die 2 Tokens pro Sekunde wie beim AMDs AI 395+.
Zossel
2025-07-02, 05:00:01
Ist wohl von Anfang an teurer Beschiss gewesen. Vermutlich nicht wirklich schneller als die 2 Tokens pro Sekunde wie beim AMDs AI 395+.
Wenn ich das richtig im Hinterkopf habe kann das NV-Ding kleinere Floating-Points als das AMD-Ding.
davidzo
2025-07-02, 09:16:41
Wenn ich das richtig im Hinterkopf habe kann das NV-Ding kleinere Floating-Points als das AMD-Ding.
Jup, es ist hallt eine 5070 mit weniger als als halber Bandbreite, dafür achtfacher Kapazität an LPDDR5 statt GDDR7. Theoretisch biszu 1PF FP4 mit sparsity. Was kann RDNA3.5 denn überhaupt für Formate?
Gouvernator
2025-07-02, 10:04:04
Ein Lichtblick ist das bei großen KI Rechenzentren für NV bergab geht. Sprich die Balance um durch dreiste Vorenthaltung von besseren Consumer-GPUs , die User in die KI-Fabriken zu drängen scheint nicht aufgegangen zu sein. Die neuen 3Gbit Speicher Chips müssten zügig kommen. Dann ist klar eine 48Gb Grafikkarte viel besser als so ein DGX Spark für das selbe Geld.
Und die User werden auch nicht auf lange Sicht scharenweise in ihre KI-Fabriken gehen. Was nützt einem die fette VEO3 Hardware wenn man damit nicht richtig herumspielen kann wegen Mondpreisen oder Zensur.
GBWolf
2025-07-02, 11:32:17
Inwiefern geht es denn bei den KI Rechenzentren bergab?
Gouvernator
2025-07-02, 12:43:13
Inwiefern geht es denn bei den KI Rechenzentren bergab?
Laut News werden die Konzern Investitionen zurück gefahren. Und Jensen trommelt gerade für Souveräne-KI bei Staaten und versucht wohl auf diese Weise für schwindelerregende KI Kosten noch Kunden zu finden. Am Ende bleibt dem nichts anderes als wieder GeForce vernünftig zu vermarkten. Er kennt doch die Auftragslage auf Jahre hinaus, deswegen sind Super-Refresh Gerüchte so schnell aufgepoppt.
prinz_valium_2
2025-07-02, 13:14:45
Die 5070 Super könnten mit mehr Speicher, mehr Shader und mehr TDP eine wirklich gut Karte werden, wenn der Preis weiterhin stimmt.
Die 5070Ti und 5080 Super sind eher meh. Außer man betreibt sie mit massig Spannung und für das letzte bisschen Leistung. Dass sollte die extrem gestiegene TDP sehr hilfreich sein. Aber will man sowas? Da kann man sich auch eine 4090 oder 4090Ti kaufen...
Hakim
2025-07-02, 13:24:47
Der volle Chip hat beim 5070 nicht sehr viele Einheiten zusätzlich, aber ja die paar Einheiten plus etwas mehr Takt, ich gehe von ~4-5% mehr beim 5070S gegenüber der 5070 aus, besser nicht mehr erhoffen :). Aber immerhin könnte das die beste Super der Generation werden
basix
2025-07-02, 15:11:19
Falls die erhöhten Preise stimmen, ist das schon nicht so toll.
Bisher brachten die Super-Generationen meistens einen gut brauchbaren Leistungssprung oder waren etwas billiger. Jetzt wird der Leistungsprung bei allen Modellen vermutlich ziemlich mager sein (ausser evtl. 5060S), bekommt zwar etwas Speicher aber es wird teurer. Würden die Preise gleich bleiben, wäre es aus meiner Sicht OK.
dildo4u
2025-07-05, 20:22:39
Benchmarks 5050 vs B580/4060/5060
https://www.techpowerup.com/review/gigabyte-geforce-rtx-5050-gaming-oc/34.html
Hakim
2025-07-25, 12:21:36
https://videocardz.com/newz/sk-hynix-confirms-to-be-working-on-24gb-3gb-gddr7-memory-modules-just-in-time-for-rtx-50-super
Die Super Varianten werden immer wahrscheinlicher
Der Kommentar "Won't it be funny if nVidia decided to give us 9GB card?" Was ihr wollt keine 8GB mehr weil zu wenig? Hier habt ihr 9GB :)
Das würde tatsächlich (in Kombination mit Nvidias Speicherverwaltung) reichen, um die allerlästigsten Schwunderscheinungen zu lindern ... :ulol:
MfG
Raff
dildo4u
2025-07-25, 13:29:56
Selbst die 5050 hat doch ein 128 Bit Interface wenn dann kommen 12GB.
9 GiB könnte man halt schon mit 96 Bit machen ... aber bringen wir sie nicht auf weitere Suff- bzw- Koks-Ideen. :ugly:
MfG
Raff
ChaosTM
2025-07-25, 13:43:05
8,5 GB geht nicht? ^^
add.: die 9 wären das fast Äquivalent zu den 3,5 damals
The_Invisible
2025-07-25, 13:54:02
Ja und dann noch eine 5070 15gb und 5080 18gb :freak:
Exxtreme
2025-07-25, 14:31:21
Vielleicht machen sie ja 8,5+0,5 GB draus. :freak:
IghcowGhRBc
bbott
2025-07-25, 17:24:51
Ja und dann noch eine 5070 15gb und 5080 18gb :freak:
Welcher Entwickler wird denn 1-2 GB extra für ein Modell berücksichtigen? Die werden als 12 bzw 16 GB Modell behandelt. Der mehr RAM wird vielleicht in 1-2 Spielen zur Lebzeiten einen Unterschied machen.
Hakim
2025-07-29, 01:07:59
Die Super Varianten sollen Gerüchten zufolge noch dieses Jahr kommen
https://videocardz.com/newz/nvidia-geforce-rtx-50-super-rumored-to-appear-before-2026
basix
2025-07-29, 08:10:29
Das fast wichtigste fehlt noch in der Liste: Die 5060S 12GB und dass die 5060(Ti) 8GB Varianten dann aussterben ;)
Leonidas
2025-07-29, 08:31:56
Unwahrscheinlich. Bisher war NV sehr krausrig mit SUPER-Refeshes im Mainstream-Segment.
Lehdro
2025-07-29, 10:50:43
Welcher Entwickler wird denn 1-2 GB extra für ein Modell berücksichtigen? Die werden als 12 bzw 16 GB Modell behandelt. Der mehr RAM wird vielleicht in 1-2 Spielen zur Lebzeiten einen Unterschied machen.
So funktioniert das aber nicht.
Siehe NV und AMDs 8 GiB Karten, wo die bessere Speicherverwaltung der NV GPUs teilweise tatsächlich das Zünglein an der Waage ist - obwohl das real vielleicht nur 0.5 GiB "mehr" sind.
Das kann dann auch der Unterschied sein ob du FG/MFG/AFMF o.ä. aktivieren kannst ohne das VRAM Budget zu sprengen.
Welcher Entwickler wird denn 1-2 GB extra für ein Modell berücksichtigen? Die werden als 12 bzw 16 GB Modell behandelt. Der mehr RAM wird vielleicht in 1-2 Spielen zur Lebzeiten einen Unterschied machen.
Der VRAM wirkt sich im Grenzbereich immer aus. Das ist ja kein binäres Abkacken wie in der 3D-Urzeit, sondern ein graduelles – leider, muss man sagen, denn gälte immer "Passt/passt nicht", wäre das Thema viel einfacher abzuhaken als mit den tatsächlichen Streaming-Eskapaden.
MfG
Raff
aufkrawall
2025-07-29, 11:15:56
Da können 1-2GB schon mal den Unterschied zwischen "läuft optimal" und "ist schon etwas blöd" ausmachen. Und in dem Bereich ist man mit 16GB bei einigen VRAM-Schleudern mit RT, FG etc. mitunter schon mal. Deshalb graut's mir mittlerweile auch, noch mehr als 600€ oder gar 700€ für eine 16GB-Karte auszugeben. Je teurer, desto ärgerlicher sind Kompromisse.
Hab btw. auch den Verdacht, UE5 versucht unter 80% Gesamtbelegung zu bleiben. Nach etwas Spielzeit scheint sich das immer bei ca. den gleichen Belegungen einzupendeln, auch wenn Hintergrundprogramme einige hundert MB zusätzlich wegfressen. Ist bei eher altertümlichen Renderern wie in Strange Brigade wohl nicht so.
The_Invisible
2025-07-29, 11:33:39
Die 18GB sind dann schon nett, dürfte sogar für Indiana Jones max in PT bei spielbaren Auflösungen für die Karte reichen :D
ChaosTM
2025-07-29, 11:53:42
Könnte hinkommen. Mir fallen viele Spiele auf, die @ Max Settings knapp über 16GB VRAM zumindest allozieren. Wie viel davon wirklich gebraucht wird weiß ich natürlich nicht.
@ 1440p oder (3440x1440) die immer noch die beliebteste Größe ist, könnte 18 durchaus helfen.
Mit 4k Geräten sollte man aber zu 24 greifen. Die werden jetzt schon, zumindest in einer hanbdvoll Spielen, gut "ausgelastet".
Mehr schadet nie, solange der Preisunterschied nicht Apple Dimensionen annimmt bei etwas mehr Speicher. :)
bbott
2025-07-30, 00:32:06
Der VRAM wirkt sich im Grenzbereich immer aus. Das ist ja kein binäres Abkacken wie in der 3D-Urzeit, sondern ein graduelles – leider, muss man sagen, denn gälte immer "Passt/passt nicht", wäre das Thema viel einfacher abzuhaken als mit den tatsächlichen Streaming-Eskapaden.
MfG
Raff
Ich meinte die Spiele Entwickler werden Setting für zb 16 GB optimieren und testen. Die werden doch nicht extra für 18GB Texturen etc auflegen und testen...
Ich meinte die Spiele Entwickler werden Setting für zb 16 GB optimieren und testen. Die werden doch nicht extra für 18GB Texturen etc auflegen und testen...
Jo, das nicht. Aber der Puffer garantiert dir dann halt ein sorgenfreies Dasein, wenn ein Spiel bei 16 GiB "gedeckelt" ist. Dann kannst du beispielsweise DLAA oder (M)FG einschalten, ohne dass es knackt. Das sind so die Dinge, die bei 12-GiB-Karten gerade das Kartenhaus zum Einsturz bringen.
MfG
Raff
aufkrawall
2025-07-30, 14:00:31
Dafür braucht's in Problemtiteln nicht erst FG oder DLAA, da reicht auch schon bloßes RT. In UE5 kann man, bis auf unsinnige Auflösungen, aber ~alles aufrotzen. Gibt schlimmere Kompromisse.
bbott
2025-07-30, 16:34:53
Jo, das nicht. Aber der Puffer garantiert dir dann halt ein sorgenfreies Dasein, wenn ein Spiel bei 16 GiB "gedeckelt" ist. Dann kannst du beispielsweise DLAA oder (M)FG einschalten, ohne dass es knackt. Das sind so die Dinge, die bei 12-GiB-Karten gerade das Kartenhaus zum Einsturz bringen.
MfG
Raff
Ich denke das werden die Spieleentwickler mit Berücksichtigen, DLSS und FG werden immer mehr in den Sys Anforderungen einfließen.
Einzig AMD könnte etwas davon profitieren, da bisher 0,5 bis 1GB mehr benötigt wurde...
Aber ist das mir RDNA4 noch gültig? Die Farbcompression wurde doch verbessert, oder?
aufkrawall
2025-07-30, 16:41:00
Ist eher Wunschdenken, zu glauben, Entwickler würden das sicher kontrollieren können. Deshalb gibt es Texturregler und in manchen Spielen auch Regler zur Regelung der Maximalbelegung, etwa in CoD. Die Verantwortung liegt beim User.
Exxtreme
2025-07-30, 16:42:01
Verlustfreie Kompression verringert den benötigten Speicherplatz nicht da dieser trotzdem vorgehalten werden muss.
mczak
2025-07-30, 17:06:04
Verlustfreie Kompression verringert den benötigten Speicherplatz nicht da dieser trotzdem vorgehalten werden muss.
Das erhöht sogar den Speicherbedarf minimal, wegen zusätzlicher Metadaten. Sollte aber weder bei nvidia noch amd ins Gewicht fallen.
Rein von der Hardware her sollte eigentlich der Speicherbedarf bei allen Herstellern recht ähnlich sein, kann schon Unterschiede geben (z.B. wegen unterschiedlicher Tiling-Anforderungen, fällt vor allem bei vielen kleinen Ressourcen ins Gewicht), der Unterschied liegt da wohl aber eher beim Treiber. Wobei eine Ausnahme ist da womöglich Raytracing, die BVH-Strukturen haben ja kein fix definiertes Format und sind herstellerabhängig (aber natürlich versuchen alle die möglichst klein zu halten).
Gipsel
2025-07-30, 17:20:38
Verlustfreie Kompression verringert den benötigten Speicherplatz nicht da dieser trotzdem vorgehalten werden muss.
Ich nehme Deinen Post mal als Aufhänger für eine Klarstellung, weil Vielen das nicht bewußt ist:
Die meisten Texturkompressionsformate sind verlustbehaftet und garantieren einen bestimmten Kompressionsfaktor. Die belegen also tatsächlich weniger Speicher. Die verlustfreie Kompression betrifft die (für das Spiel/Anwendung eher transparente) Kompression der/des Rendertargets/Framebuffers.
Der_Korken
2025-07-30, 18:10:58
Verlustfreie Kompression verringert den benötigten Speicherplatz nicht da dieser trotzdem vorgehalten werden muss.
Laienhafte Frage, aber wenn ich z.B. für komprimierten Texturen genauso viel Speicher allokieren muss wie für unkomprimierte und lediglich ungenutzte Speicherbereiche am Ende habe, kann ich diese ungenutzten Bereiche nicht ohne Performance-Verlust in den RAM (oder auf die Platte) auslagern?
x-force
2025-07-30, 18:34:52
Ich nehme Deinen Post mal als Aufhänger für eine Klarstellung, weil Vielen das nicht bewußt ist:
Die meisten Texturkompressionsformate sind verlustbehaftet und garantieren einen bestimmten Kompressionsfaktor. Die belegen also tatsächlich weniger Speicher. Die verlustfreie Kompression betrifft die (für das Spiel/Anwendung eher transparente) Kompression der/des Rendertargets/Framebuffers.
das ganze kapitel besonders in hinblick auf den speicherverbrauch wird durch neural texture compression demnächst wohl neu geschrieben.
man könnte argumentieren, dass die 12gb karten damit für die üblichen zwecke ausreichen.
basix
2025-07-30, 19:25:46
Texturen sind nur ein Teilbereich. Klar, effiziente Speichernutzung ist immer gut. Aber deswegen gehen BVH, Beleuchtungscaches, Physik, Animationen, Geometrie usw. nicht weg. Daneben noch Speicherkosten für DLSS, FG, RR usw.
Hier ein Diagramm von AMD: Texturen machen viel aus. Aber da ist auch noch kein FSR4 und RT dabei
https://gpuopen.com/rmv/
https://gpuopen.com/_astro/resource_overview.CxOBsOKA_2mch8a.png
x-force
2025-07-30, 19:37:17
Texturen sind nur ein Teilbereich. https://gpuopen.com/_astro/resource_overview.CxOBsOKA_2mch8a.png
coole grafik!
mein glasauge summiert den orangenen teil auf ca 40-50%. nv spricht von einsparungen im bereich von 90%
das würde in der amd grafik mindestens 6gb für rt, dlss und co freigeben
https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/NTC-Neue-Version-hoeherer-Performance-massiver-VRAM-Reduktion-1477666/
basix
2025-07-30, 19:39:13
Wie gesagt: Effiziente Nutzung ist immer gut ;)
Ein Teil der 90% Einsparung wird gleich wieder aufgefressen, indem man die Texturauflösung konsistent hoch hält. Heute macht man da mehr Kompromisse und reduziert and "unwichtigen" Stellen die Texturauflösung.
12GB Karten werden durch das sicher länger durchalten, klar. Aber 8GByte bleibt tot.
x-force
2025-07-30, 20:43:22
Ein Teil der 90% Einsparung wird gleich wieder aufgefressen, indem man die Texturauflösung konsistent hoch hält.
oder man denkt gleich einen schritt weiter und erzeugt die texturen gerade in der qualität, in der sie nach upscaling noch sinnvoll sind.
ich frage mich nämlich eher, was von 4k ultra texturen bei <1080 zeilen rendertarget bleibt.
mal ein gedanke:
wenn dlss 4 dlaa keine zusätzliche schärfe zu quality mehr gewinnt, kann man sich 4k texturen theoretisch sowieso schenken.
TheAntitheist
2025-07-30, 22:22:52
oder man denkt gleich einen schritt weiter und erzeugt die texturen gerade in der qualität, in der sie nach upscaling noch sinnvoll sind.
ich frage mich nämlich eher, was von 4k ultra texturen bei <1080 zeilen rendertarget bleibt.
mal ein gedanke:
wenn dlss 4 dlaa keine zusätzliche schärfe zu quality mehr gewinnt, kann man sich 4k texturen theoretisch sowieso schenken.
also dein Verständnis von Texturen ist komplett falsch... Wenn du eine Gebäude, sagen wir 20m hoch texturierst und du kein tiling verwenden willst, dann ist die textur so extrem unscharf wenn du vor dem Haus stehst... auch mit 4k. 4k ist gar nichts.
Bei charakteren benutzt man ja jetzt schon fürs gesicht 2k, für den oberkörper 2k, arme und beine 2k...
Dazu kommt ja noch das du auch die Objekte von allen Seiten texturieren musst, also geht da auch viel platz verloren.
guck dir mal bitte UV maps von hero objects an
mczak
2025-07-30, 23:09:59
Laienhafte Frage, aber wenn ich z.B. für komprimierten Texturen genauso viel Speicher allokieren muss wie für unkomprimierte und lediglich ungenutzte Speicherbereiche am Ende habe, kann ich diese ungenutzten Bereiche nicht ohne Performance-Verlust in den RAM (oder auf die Platte) auslagern?
Die im Normalfall ungenutzten Bereiche sind ja nicht einfach am Ende, sondern schön verteilt, weil das ganze ja blockweise geschieht. Die Adresse eines Blockes im Speicher ändert sich nicht, nur innerhalb eines Blockes wird dann eben je nach dem bloss 1/2 oder 1/4 des Speichers belegt (oder auch noch weniger - keine Ahnung wie das heute aussieht).
x-force
2025-07-30, 23:31:19
also dein Verständnis von Texturen ist komplett falsch... Wenn du eine Gebäude, sagen wir 20m hoch texturierst und du kein tiling verwenden willst, dann ist die textur so extrem unscharf wenn du vor dem Haus stehst... auch mit 4k. 4k ist gar nichts.
Bei charakteren benutzt man ja jetzt schon fürs gesicht 2k, für den oberkörper 2k, arme und beine 2k...
wenn, bla, blubb.... du konstruierst.
wie dicht willst du denn an das gesicht ranfahren, um bei <1080p von einer 4k textur zu profitieren?
für welche spiele macht das sinn?
Dovregubben
2025-07-31, 08:43:30
Kein Entwickler baut Texturen für eine bestimmte Speichergröße. Grade auf dem PC ist da eh nichts garantiert, weil Windows und andere Programme sich auch um den Speicher streiten. Mehr Speicher gibt einfach der Engine mehr Spielraum zum Atmen. Indy ist da ja mit 16GB tatsächlich schon am Limit der Skalierung.
bbott
2025-07-31, 16:30:42
Kein Entwickler baut Texturen für eine bestimmte Speichergröße. Grade auf dem PC ist da eh nichts garantiert, weil Windows und andere Programme sich auch um den Speicher streiten. Mehr Speicher gibt einfach der Engine mehr Spielraum zum Atmen. Indy ist da ja mit 16GB tatsächlich schon am Limit der Skalierung.
Also testen die nicht die Grafikeinstellungen und wählen Optionen vor welche für die GPU und RAM geeignet sind, sondern lassen den Zufalls generator entscheiden :D
basix
2025-08-23, 15:17:01
Mal ein einigermassen gescheiter Die Shot von HPC Blackwell (in der Ultra Version in diesem Fall):
https://developer.nvidia.com/blog/inside-nvidia-blackwell-ultra-the-chip-powering-the-ai-factory-era/
- 160 SM pro Blackwell Ultra (80 SM pro Die)
- Krass, wie viel Fläche NVLink einnimmt
- Auch interessant: GB300 hat "nur" 20 PFLOPS FP4 Sparse (gleich viel wie GB200), aber 15 anstatt 10 PFLOPS FP4 dense https://developer.nvidia.com/blog/introducing-nvfp4-for-efficient-and-accurate-low-precision-inference/
https://developer-blogs.nvidia.com/wp-content/uploads/2025/08/Blackwell-Ultra-GPU-chip-png.webp
davidzo
2025-08-30, 14:15:48
Was ist das für eine Blackwell APU?
https://www.jentsch.io/wp-content/uploads/2025/07/AGX-Thor.png
https://www.heise.de/en/news/Nvidia-s-Jetson-AGX-Thor-costs-3499-US-dollars-as-a-dev-kit-10622015.html
- 14 ARM-Kerne vom Typ Neoverse-V3AE
- 2560 Blachkwell Shader-Kerne
- 2 Petaflops NVFP4
- 128GB 256 Bit LPDDR5X mit 273 GByte/s.
- 40 bis 130 Watt
Das Ding ist kleiner als GB10, aber beim Speicherinterface gleich groß. Die FP4 Leistung ist aber doppelt so groß bzw. pro Shader vervierfacht. - Ich sehe auch nur 4x DRAM packages, anders als bei GB10. Der Rest muss wohl auf der Rückseite sein? GB10 / N1X hat auch ein viel größeres längliches Package für das 256bit Speicherinteface.
Das muss eine andere Version von Blackwell sein bei der die FP4 Leistung vervierfacht wurde?
Ist das ebenfalls TSMC N3 wie auch bei GB10 oder weiterhin N4 wie der rest von Blackwell?
basix
2025-08-30, 14:46:52
Jetson Thor ist anders als GB10 mehr auf Industrieanwendungen ausgelegt.
https://www.nvidia.com/de-de/autonomous-machines/embedded-systems/jetson-thor/
Es gibt x64er LPDDR5 Packages. Kann also schon sein, dass es nur 4x davon auf dem PCB hat. Zum Fertigungsprozess findet man nichts, ich tippe aber auf TSMC N4. Die GPU stammt aber definitiv von Gaming-Blackwell ab, da Grafikfunktionen angepriesen werden.
Dort findest du auch weitere technische Daten:
https://developer.download.nvidia.com/assets/embedded/secure/jetson/thor/docs/Jetson_T5000_Modules_DS_DS11945001_v1.1.pdf?__token__=exp=1756574720~hmac=642109 95fe9e97766279d390b6bd5d3e5c9b00bf003ddb6f6bc3f8c715827789&t=eyJscyI6ImdzZW8iLCJsc2QiOiJodHRwczovL3d3dy5nb29nbGUuY29tLyJ9
davidzo
2025-08-30, 17:24:56
JDie GPU stammt aber definitiv von Gaming-Blackwell ab, da Grafikfunktionen angepriesen werden.
Nee, das sieht eher nach Datacenter Blackwell aus + automotive ARM CPUkerne.
Der Jetson AGX Thor scheint derselbe Chip zu sein den Nvidia schon als neue automotive Plattform vorgestellt hat: https://www.computerbase.de/news/mobilitaet/autonomes-fahren-nvidia-drive-thor-mit-1-000-tflops-setzt-auf-blackwell-gpu.87444/
GB10 ist klar ein gaming Blackwell Abkömmling. Bei 192 Tensor Cores a 2,6Ghz und 500TF dense komme ich auf 1Tflops/Ghz/Tensor Core. Das deckt sich mit der RTX Pro A 6000 die bei 752TC und vermutlich 2,6Ghz boost auf rund 2000 Tflops NVFP4 kommt.
B100/200 Tensor Cores haben wohl eher 4Tflops/Ghz/TC (1056*1,8-2Ghz*4).
Der Jetson Thor soll nun nur 1,57Ghz "max-GPU" takt haben und damit schon 2070Tflops sparse schaffen. Das ist 6-7Tflops pro TC pro Ghz, noch weit über Datacenter Blackwell.
Wahrscheinlich quoted Nvidia hier aber die garantierten baseclocks bei 40Watt und die Pflops Angaben sind aber bei 2,7Ghz @130Watt gemacht. Demnach hätte AGX Thor die Tensor Cores von Datacenter Blackwell die 4:1 schneller sind als die von gaming Blackwell. Die Tabelle von nvidia könnte beim Takt schlichtweg fehlerhaft sein.
Oder aber das sind noch extremere TCs als bei Datacenter Blackwell die 8Tflops pro TC pro Ghz schaffen. In dem Fall würde der Chip um Schnitt eher niedriger takten. Dann finde ich die 130Watt TDP aber ziemlich extrem. Das past viel eher zu einem 20SM Chip @2,7Ghz als zu einem 20SM Chip @1,4Ghz.
Die RTX5050 hat ja auch 20SM @2,7Ghz und 130Watt und wird sicher nicht sonderlich getuned sein, da es keinen salvage Chip darunter gibt wie bei AGX Thor T4000. GB10 hat mit 48SM á 2,6Ghz und 20 CPUkernen auch nur 140Watt, hat allerdings auch den N3 Nodevorteil.
basix
2025-08-30, 18:56:56
Naja:
Highlights of the GPU architecture in Thor SoC:
> Advanced graphics capabilities, with next generation DLSS
Graphic Features
Blackwell graphics capabilities include:
> End-to-end lossless compression, including Post-L2 compression, enabling compression of M stores.
> Tiled Caching
> OpenGL 4.6+, Vulkan 1.2+, CUDA 11.4+
> Adaptive Scalable Texture Compression (ASTC) LDR profile supported
> Modern Graphics features:
• Ray Tracing
• DL Inferencing
• Mesh Shaders
• Sampler Feedback
• Variable Rate Shading
• Texture LOD in compute programs
> Iterated blend, ROP OpenGL-ES blend modes
> 2D BLIT from 3D class avoids channel switch
> 2D color compression
> Constant color render SM bypass
> 2x, 4x, 8x MSAA with color and Z compression
> Non-power-of-2 and 3D textures, FP16 texture filtering
> FP16 shader support
> Geometry and Vertex attribute instancing
> Parallel pixel processing
> Early-z reject: Fast rejection of occluded pixels acts as multiplier on pixel shader and texture performance while saving power and bandwidth
> Video protection region
https://forums.developer.nvidia.com/t/jetson-thor-specs-available-now/332780
https://developer.download.nvidia.com/assets/embedded/secure/jetson/thor/docs/Jetson_T5000_Modules_DS_DS11945001_v1.1.pdf?__token__=exp=1756574720~hmac=642109 95fe9e97766279d390b6bd5d3e5c9b00bf003ddb6f6bc3f8c715827789&t=eyJscyI6ImdzZW8iLCJsc2QiOiJodHRwczovL3d3dy5nb29nbGUuY29tLyJ9
Wenn Thor mehr Tensor-FLOPS bietet, dann haben sie einfach die breiter gemacht. Die Grundarchitektur ist aber eher Gaming-Blackwell.
- 2560 Cuda Cores
- 96 Tensor Cores
Zossel
2025-09-01, 18:21:51
Darf sich NV gegenüber seinen Shareholdern so aufführen?
https://futurezone.at/b2b/nvidia-2-mysterioese-kunden-39-prozent-umsatz/403079832
x-force
2025-09-01, 18:45:46
Darf sich NV gegenüber seinen Shareholdern so aufführen?
solange zahlen im kapitalismus stimmen, kann der umsatz auch von waffen, oder blutdiamenten kommen.
https://futurezone.at/b2b/nvidia-2-mysterioese-kunden-39-prozent-umsatz/403079832
mein gefühl sagt mir, dass musk bei jensen angerufen hat und nicht zum distributor rennt.
basix
2025-09-01, 19:04:36
In der Industrie ist es völlig normal, die Kunden mit "A" und "B" usw. zu betiteln. Das ist nichts neues.
Dass fast 40% des Umsatzes auf zwei Kunden fallen ist schon ein Klumpenrisiko. Das könnten evtl. Dell oder HP sein. Wenn diese 40% aber dann zum grössten Teil sowieso weiterverkauft werden (z.B. Hyperscaler wie Amazon oder Meta) spielt es nichtmal so eine Rolle, da die Endkunden das Zeugs auch von anderen Anbietern oder direkt von Nvidia kaufen würden.
Slipknot79
2025-09-01, 19:37:53
Die 2 Kunden sind members vom 3dc und vom luxx? :redface:
AffenJack
2025-09-01, 22:06:10
In der Industrie ist es völlig normal, die Kunden mit "A" und "B" usw. zu betiteln. Das ist nichts neues.
Sie dürften die nicht mal veröffentlichen ohne Zustimmung der Kunden und kein Kunde wird zustimmen, dass Nvidia sagt, wieviel er bei Nvidia einkauft. Selbst wenn es ein offenes Geheimnis ist, ist Umsatz zwischen privaten Firmen Confidential Data.
Dass fast 40% des Umsatzes auf zwei Kunden fallen ist schon ein Klumpenrisiko. Das könnten evtl. Dell oder HP sein. Wenn diese 40% aber dann zum grössten Teil sowieso weiterverkauft werden (z.B. Hyperscaler wie Amazon oder Meta) spielt es nichtmal so eine Rolle, da die Endkunden das Zeugs auch von anderen Anbietern oder direkt von Nvidia kaufen würden.
Der Teil im Artikel dürfte nicht stimmen. Nvidia verkauft direkt an Hyperscaler. Die designen ihre Datacenter ja auch selbst mittlerweile bzw. basieren auf Nvs Referenzdesigns wegen Time to Market. Dell und HP sind bei denen eher nicht mehr dazwischen und höchstens noch bei den 10% Top-Kunden, wobei ich selbst das bezweifle. Sonst würden Dells und HPs Zahlen auch in einer ganz anderen Art explodieren.
basix
2025-09-01, 23:01:03
Ich bin da auch skeptisch bei der Interpretation im Artikel.
Aber mMn soll Nvidia doch die 40% Umsatz einbüssen. Wo liegen sie dann? Vermutlich immer noch >100 Mrd./Jahr, was auch Intel zu Bestzeiten um Weiten übertrifft. Ich sehe da also absolut kein finanzielles Disaster. Ein Problem wird es für Nvidia nur, wenn sie plötzlich grosse Lagerbestände hätten und nicht mehr loswerden würden. Aber Nvidia hätte momentan wohl genug Bar-Reserven um auch sowas zu stemmen.
Zossel
2025-09-02, 08:03:00
Sie dürften die nicht mal veröffentlichen ohne Zustimmung der Kunden und kein Kunde wird zustimmen, dass Nvidia sagt, wieviel er bei Nvidia einkauft. Selbst wenn es ein offenes Geheimnis ist, ist Umsatz zwischen privaten Firmen Confidential Data.
Und die Eigentümer dürfen das auch nicht wissen?
AffenJack
2025-09-02, 08:48:05
Und die Eigentümer dürfen das auch nicht wissen?
Darfst du, weil du ne Aktie besitzt ins VW-Werk reinlaufen und die die F&E Unterlagen angucken oder Einsicht in die genaue Roadmap und Rechnungen verlangen?
Du bist Aktionär und nicht Geschäftsführer der Firma. Wenn du 50% aller Aktionäre hinter dir versammelst und in der Aktionärsversammlung eine Veröffentlichung verlangst, ja dann könntest du sowas eventuell erreichen. Der übliche Weg ist aber, dass du genug Aktionäre hinter dir versammelst und dich damit in den Aufsichtsrat wählen lässt. Dort hast du dann die Einsicht und bist ein bestellter Vertreter.
Ist bei Firmen die keine Aktiengesellschaften sind das gleiche. Nur weil du anteiliger Gesellschafter bist, hast du keine Rechte auf detaillierte Einsicht, solange du nicht 50% der Gesellschaft besitzt und die anderen Anteilseigner überstimmen kannst.
The_Invisible
2025-09-03, 11:17:01
94% Marktanteil von Nvidia, Blackwell geht ja wirklich schlecht... ab wann müssen die sich Sorgen machen wegen quasi Monopol?
https://www.jonpeddie.com/news/q225-pc-graphics-add-in-board-shipments-increased-27-0-from-last-quarter/
basix
2025-09-03, 12:23:05
Die Zahlen von Jon Peddie machen wenig Sinn. Siehe die Kommentare zum Artikel.
Neurosphere
2025-09-03, 12:23:43
Verstehe ich nicht ganz. Laut Steam survey legt AMD derzeit stetig zu.
Linmoum
2025-09-03, 12:26:21
Verstehe ich nicht ganz. Laut Steam survey legt AMD derzeit stetig zu.In Bezug auf was? Bei dGPUs? Zahlen von JPR sind AiBs, bei Steam fällt doch unter den Marktanteil alles, also auch iGPUs, Handhelds etc.
dildo4u
2025-09-03, 12:27:20
Verstehe ich nicht ganz. Laut Steam survey legt AMD derzeit stetig zu.
Bei den CPU?Es tauchen noch keine RDAN4 Modelle auf.
https://i.ibb.co/mFHfzWfz/Bildschirmfoto-vom-2025-09-03-12-28-28.png (https://ibb.co/6J4jsCjs)
gif hosting site (https://de.imgbb.com/)
https://www.pcgamer.com/hardware/graphics-cards/nvidias-rtx-5070-is-the-most-popular-current-gen-gpu-in-the-latest-steam-hardware-survey-but-amds-rdna-4-cards-dont-even-make-the-top-100/
TheAntitheist
2025-09-03, 23:36:27
Verstehe ich nicht ganz. Laut Steam survey legt AMD derzeit stetig zu.
das stimmt aber nicht, AMD hat auch dort wieder verloren:
https://store.steampowered.com/hwsurvey/Steam-Hardware-Software-Survey-Welcome-to-Steam
Neurosphere
2025-09-04, 02:39:16
das stimmt aber nicht, AMD hat auch dort wieder verloren:
https://store.steampowered.com/hwsurvey/Steam-Hardware-Software-Survey-Welcome-to-Steam
Wo siehst du dort das AMD verloren hätte?
dildo4u
2025-09-04, 04:28:18
Könnte die 5070S als erstes kommen?Es gibt wohl schon Benches
9ii4qrzfV5w
horn 12
2025-09-04, 08:57:54
April 2027 in etwa erst RDNA 5
und einen RDNA 4 Refresh mit 32GB DDR7 Speicher aber wohl auch dann 400+ Watt
mit ca. vielleicht plus/minus RTX 5080 Super Performance.
Wird wohl eine lange Durststrecke werden bis RDNA 5
dildo4u
2025-09-04, 09:01:42
2 Jahre zwischen Generationen sind komplett normal und es gibt keine neuen Konsolen vor 2027 das heißt man kann weiterhin RT Krüppel nutzen kann da alles auf einer PS5 laufen muss.
The_Invisible
2025-09-04, 09:09:14
Könnte die 5070S als erstes kommen?Es gibt wohl schon Benches
https://youtu.be/9ii4qrzfV5w
Wundert mich das die schon im Q4 kommen sollen. Oder Jensen war vom Blackwell Launch so angepisst das er jetzt Nägel mit Köpfen machen will. :D
aufkrawall
2025-09-04, 09:17:18
Das ist schon bitter für AMD, wenn selbst gegen den Krüppel-Chip der 5070S RDNA4 nicht mehr als VRAM-Heiland dasteht. Wenn sie nicht noch einen 32GB-Refresh bringen, müssten sie die Preise ja extrem drücken (was gegen Sus Verlautbarungen stünde), um noch irgendwas loszuwerden. Nvidia ist gemein. :freak:
ChaosTM
2025-09-04, 09:31:33
Jensen lässt sich keine Marktanteile wegnehmen und schlägt sofort zurück.
Das Pendel schlug schon etwas in Richtung AMD aus, wenn man den Statistiken der Händler glauben kann. Sieht man in Moor`s Law Video weiter oben recht gut.
Um nicht völlig auf der Strecke zu bleiben wird AMD eine 32GB Version bringen müssen. 24GB 70ti und 80er und vor allem die 18GB 70er sind dann eigentlich No-Brainer.
Mit 16 und 12 gerade mal "meh"..
horn 12
2025-09-04, 09:38:58
Dann wird die 9070 24GB und die 9070XT als Refresh 32 GB bekommen
AMD war Ram Bestückungsmässig schon immer Vorreiter und bei RDNA 4 wollte man nur Mittelklasse haben.
Rechne ab Black Friday werden die AMD Karten abverkauft
dargo
2025-09-04, 11:38:58
Das ist schon bitter für AMD, wenn selbst gegen den Krüppel-Chip der 5070S RDNA4 nicht mehr als VRAM-Heiland dasteht. Wenn sie nicht noch einen 32GB-Refresh bringen, müssten sie die Preise ja extrem drücken (was gegen Sus Verlautbarungen stünde), um noch irgendwas loszuwerden. Nvidia ist gemein. :freak:
Drama... Nvidia bringt fast ein Jahr später endlich eine 5070 die brauchbar ist für wahrscheinlich mehr Geld. :freak:
btw.
Die Wattage-Angaben sind auch wieder heftig, erinnert an Thermi. :tongue: 5080S und 5070TI S also nur höhere Frequenzen ohne mehr Cores? Worauf basiert die 5070S nun? Immer noch GB205? 275W für so ein mickriges Ding wäre echt Wahnsinn.
aufkrawall
2025-09-04, 11:45:14
Wenn nur dargo dann noch Radeon kauft, reicht das halt nicht mehr.
Mal abgesehen davon, dass die 12GB abseits vom Sony-Schrott ziemlich gut funktionieren. Erst recht, wenn man das dort meistens miserable RT ab- oder wenigstens etwas runter stellt, was du ja sowieso machst.
Immer noch GB205? 275W für so ein mickriges Ding wäre echt Wahnsinn.
Nö? TBP von 9070 XT ist 304W und die 5070S wird nicht viel langsamer sein.
dargo
2025-09-04, 11:58:19
Nö? TBP von 9070 XT ist 304W und die 5070S wird nicht viel langsamer sein.
Sie wird selbst langsamer sein wenn die 9070XT innerhalb der Stock V/F-Kurve mit 250W läuft. So viel zu deinem missglückten Trollversuch.
Hakim
2025-09-04, 11:59:57
Ja denke die 5070S wird dann Raster auf 9070 sein und RT halt besser. Die 70XT sollte immer noch in Raster Abstand haben. Die 70XT ist auf 70Ti Niveau, so schnell wird die 70S nicht. Zu den 275W angaben, wie immer bei NV wird avg die Karte weniger brauchen denke ich und nur im Ausnahme Fällen die 275W sich genehmigen. Bei den 9070ern klebt es fast durchgängig bei den max Limits (bitte nicht mit UV jetzt argumentieren, das kann man immer mit jeder Karte machen, ich Rede von Stock).
dargo
2025-09-04, 12:07:01
@Hakim
Dass N48 XT überwiegend im Powerlimit hängt liegt zum großen Teil auch an dem max. Boost von 3450Mhz. Einfach -500Mhz nehmen (hat gar nichts mit Undervolting zu tun) und schon passiert das nicht mehr durchgehend. Ich denke AMD hat sich dafür entschieden weil das GPU-Design es kann und nichts Größeres über N48 bei RDNA4 released wurde. Praktisch auf Teufel komm raus die letzten 1-2% noch rausquetschen wo natürlich Perf/W völlig flöten geht.
PS: bei 9070 non XT müsste man natürlich den max. Boosttakt noch einiges stärker eingrenzen (zb. mit max. 2,5-2,6Ghz) damit das Ding nicht überwiegend in den 220W festhängt. Der Treiber erlaubt aber leider nur max. -500Mhz. Ich weiß... völlig bescheuerte Entscheidung von AMD.
aufkrawall
2025-09-04, 12:10:30
Sie wird selbst langsamer sein wenn die 9070XT innerhalb der Stock V/F-Kurve mit 250W läuft. So viel zu deinem missglückten Trollversuch.
lol, ausschließlich die Radeon manuell tweaken, mir aber Trolling unterstellen. :crazy:
Ist wirklich bergab mit dir gegangen...
dargo
2025-09-04, 12:15:32
lol, ausschließlich die Radeon manuell tweaken, mir aber Trolling unterstellen. :crazy:
Lol... das Powerlimit im Treiber absenken ist bei dir mittlerweile schon tweaken? Geht ganz schön bergab mit dir. Ja... ich wähle einen besseren Betriebspunkt wenn der IHV oder AIB es übertreiben. Solange ein Treiber eine Spanne von -30% bis +10% offiziell erlaubt ist man super flexibel beim Verbrauch. Im übrigen tweaked nach deiner Logik Nvidia schon von Haus aus. Ein GB203 verträgt wesentlich mehr als die üblichen knapp 2,8Ghz in Games, wenn man ihn lässt. Betriebspunkte scheinen hier für manche Neuland zu sein.
aufkrawall
2025-09-04, 12:17:47
Ja, natürlich. Tiefere Punkte auf der Kurve sind effizienter, no shit. Ist bei GeForce genauso der Fall, einfach nur ein richtig plumper Versuch von dir...
dargo
2025-09-04, 12:28:05
Dir scheint ja (warum auch immer) entgangen zu sein, dass Nvidia Blackwell gar nicht so hoch boosten lässt. Insofern hast du schon von Haus aus einen tieferen Punkt, ähm Tweak, bei NV bei einer nicht so hohen Gaminglast. Nennt sich "künstliches" Taktlimit.
aufkrawall
2025-09-04, 12:34:57
Ich weiß nicht, was daran so schwer zu verstehen ist, dass durch eine Absenkung des PTs immer Takt und Spannung gemeinsam reduziert werden und dadurch ein gewisser Effizienzgewinn entsteht? Das ist bei Blackwell nicht anders als bei RDNA4...
dargo
2025-09-04, 12:40:47
Und ich weiß nicht was daran schwer zu verstehen ist wenn IHV A bei ca. 2850Mhz dicht macht und IHV B bei 3450Mhz? Klassiche Äpfel/Birnen Vergleiche. Wenn du schon beide vergleichst dann musst du beide gleich hoch boosten lassen. Ansonsten verliert immer derjenige den man wesentlich höher boosten lässt bei Perf/W im gleichen Fertigungsprozess.
aufkrawall
2025-09-04, 12:44:47
Nix unsinniger Vergleich. Wenn auf beiden Karten grob angenommen bei -10% PT -5% fps rumkommen, du das aber nur der Radeon zugestehst, ist das einfach nur komplett unsinnig. Da gibt es wirklich gar nichts weiter zu diskutieren...
Tesseract
2025-09-04, 13:04:53
Dir scheint ja (warum auch immer) entgangen zu sein, dass Nvidia Blackwell gar nicht so hoch boosten lässt. Insofern hast du schon von Haus aus einen tieferen Punkt, ähm Tweak, bei NV bei einer nicht so hohen Gaminglast. Nennt sich "künstliches" Taktlimit.
ich hab das jetzt 4 mal gelesen und immer noch keine ahnung was du eigentlich sagen willst. nvidias kurve geht seit mindestens pascal in der regel bis >95% des individuellen chipmaximums und dieser takt wird in der regel gehalten wenn man nicht ins power/temperatur limit kommt (außer vielleicht in 15+ jahre alten retrogames wo der treiber fälschlicherweise den P-state wechselt). modelle die per design das powerlimit nutzen sind eher selten (z.B. 3070 vs. die eigentlich in jeder hinsicht technisch "bessere" 3070Ti de facto ohne limit)
x-force
2025-09-04, 13:05:41
Dir scheint ja (warum auch immer) entgangen zu sein, dass Nvidia Blackwell gar nicht so hoch boosten lässt. [...] Nennt sich "künstliches" Taktlimit.
nun ist oc-potential auf einmal scheiße ;D
amd betreibt die teile an der kotzgrenze, um irgendwie ein paar verkäufe zu generieren.
das ist aus mehreren aspekten suboptimal, aber letztlich das resultat minderwertiger hardware.
schönen gruß an die dissonanz
dargo
2025-09-04, 13:32:35
ich hab das jetzt 4 mal gelesen und immer noch keine ahnung was du eigentlich sagen willst.
Ganz einfach... Nvidia lässt die SKUs nicht so hoch boosten wie sie könnten. Der max. Boosttakt bei Blackwell ist deutlich früher begrenzt als bei N48/N44. Natürlich auch irgendwo verständlich da Nvidia sich nicht das Portfolio drüber kaputt machen möchte. Nur ein Beispiel von vielen... würde NV GB203 mit >3Ghz von Haus aus boosten lassen wäre der Abstand zum GB202 kleiner. Gleiches kannst du auch auf eine 5070TI vs. 5080 usw. übertragen. Dieses Thema auch in Bezug auf den Refresh nicht vergessen, der ebenso genug Platz im Portfolio braucht.* Diese Pläne liegen längst in den Schubladen noch bevor der non Refresh released wird. Bei AMD sieht es anders aus da über dem N48 einfach nichts größeres im Portfolio da ist. Man gefährdet sich also keine eigene SKU. Und einen N44 lässt AMD ebenfalls so hoch boosten weil der Abstand zum N48 sehr groß ist. Auch schon zur non XT N48. Übrigens noch höher als einen N48.
https://www.computerbase.de/artikel/grafikkarten/radeon-rx-9060-xt-test.92929/seite-2#abschnitt_gputaktraten_unter_last
https://www.computerbase.de/artikel/grafikkarten/amd-radeon-rx-9070-xt-rx-9070-test.91578/seite-2#abschnitt_gputaktraten_unter_last
Edit:
Bei diesem Thema beziehe ich mich speziell auf die Gaminglasten wo ein GB203 im Taktlimit hängt während ein N48 XT noch weiter nach oben auf über 3Ghz boostet. Letztens gab es dafür ein schönes Beispiel mit glaube RTX 5080 vs. 9070 XT in BF6 Beta. Könnte auch eine 5070TI gewesen sein. Ich müsste mal schauen ob ich das Video wieder finde. Dort hing die Geforce jedenfalls bei knapp 2,8Ghz fest wodurch logischerweise der Verbrauch nicht dem PT-Limit entsprach, auch nicht leicht drunter, während die Radeon weiter boostete und entsprechend diese am oder näher beim Powerlimit rauskam.
Ist nicht ganz das Video was ich suche aber hier kann man das auch sehr gut sehen. Die RTX 5080 macht übrigens schon bei ca. 2,65Ghz dicht, während die 9070XT fröhlich weiter boostet weil AMD sie lässt.
https://youtu.be/pbdPNxe7O_I?si=IlHlZCzOBF4B2n5-&t=383
Hier nicht wundern über die paar Wattchen mehr. Ist halt kein Beispiel mit einer Standard 304W 9070XT. Die paar Wattchen mehr machen aber auch nur ca. 20-30Mhz frei, viel mehr ist das nicht. Ergo wayne. Und hier ein Beispiel von mir was passiert wenn ich die N48 XT auf max. 2,62Ghz beschränke... dann wird aus einer 304W Graka eine 213W Graka. Gleiches Ergebnis in dieser Szene würde ich erreichen wenn ich diesen Takt nicht über das Powerlimit sondern Taktoffset wählen würde (also nichts anderes was Nvidia macht, eine wesentlich stärkere Limitierung der max. Boostfrequenz). Aber da AMD max. -500Mhz nur zulässt und es leider auch keinen MPT-Support mehr gibt dank Blackbox komme ich mit nur dieser Maßnahme nicht unter ~2,86Ghz, siehe letztes Bild.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13798998&postcount=2022
TLOU2 heizt ebenfalls nicht so sehr (sieht man ganz einfach daran, dass bei 304W über 3Ghz rauskommen), dürfte durchaus mit einem BF6 bei der Heizlast vergleichbar sein.
* Eine RTX 5080S soll laut den aktuellen Gerüchten nicht mit mehr Cores kommen. Um X Mehrleistung aus dem Chip rauszukitzeln bleibt also nur noch die Taktkeule, sprich mehr Boostfrequenz freigeben mit logischerweise dann auch höherem Powerlimit.
dildo4u
2025-09-07, 05:56:15
16GB scheinen hier zu limitierten scheint nicht nur die reine Performance der 4090 zu sein.
Hoffentlich kommt die 5080S dort dran.
https://i.ibb.co/R4TxvZ0s/RT-Indiana-p.webp (https://ibb.co/k62RHk8w)
https://www.techspot.com/review/2960-nvidia-geforce-rtx-5070/
Sardaukar.nsn
2025-09-07, 08:42:57
Zwei Mausklicks und dann läuft Blackwell auch fröhlich weit über 3 Ghz. Dafür braucht man nicht auf eine Super Version warten.
dildo4u
2025-09-10, 14:11:29
Angeblich gibt es selbst intern kein Launch Termin für den Super Refresh
https://wccftech.com/nvidia-rtx-50-super-series-isnt-launching-anytime-soon-rtx-50-gpus-still-in-full-cycle/
basix
2025-09-10, 15:42:55
Gibt momentan schlicht keinen Grund für einen Refresh.
horn 12
2025-09-10, 15:53:00
Kann wie gesagt auch erst zur damaligen Cebit Zeit, also Anfang März kommen
oder aber auch gar nicht.
Schauen was AMD zur CES preisgibt
Hakim
2025-09-28, 11:20:35
Ich weiß muss nichts heißen aber seasonic listet die super Karten schon für den NT Check
https://videocardz.com/newz/seasonic-lists-geforce-rtx-5070-ti-super-and-rtx-5070-super-in-its-psu-calculator
horn 12
2025-09-28, 12:59:23
Ja, werden Ende Jänner bis Anfang Februar aufschlagen und dann Ende 2026 / Anfang 2027 Rubin
Bluefox
2025-09-29, 18:49:43
Scheint wieder anders zu kommen:
https://www.pcgameshardware.de/Geforce-RTX-5070-Super-Grafikkarte-281358/News/Release-Launch-Veroeffentlichung-Bericht-1483150/
Zwei Mausklicks und dann läuft Blackwell auch fröhlich weit über 3 Ghz. Dafür braucht man nicht auf eine Super Version warten.
Mit bestenfalls +10 Prozent Takt kannst du den heilsamen Effekt von +50 Prozent Speicher nicht erzielen. Das meinte er. :)
MfG
Raff
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.