Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia Blackwell (Nachfolger von Hopper & Ada, 2025)
Troyan
2025-05-20, 13:15:39
~75% des Postings wieder mal am Thema vorbei. Es geht nicht um Rastergrafik oder FSR. Es geht um Manipulation von Reviews.
Wie immer komplett unreflektiertes und zT vom Thema abweichendes Fanboygeseier. Mit dir ist jegliche sachliche Diskussion sinnfrei.
Jaja, immer ablenken, wenn die Wahrheit nicht mehr zu leugnen ist.
Es steht dir doch frei zu zeigen, dass Gamernexus die technischen Fortschritte von nVidia auch in seinen Test sauber abgebildet hat. Und nicht nur so nebenbei, weil die ja nicht wichtig wären.
Ich spiele heute mit Pathtracing. Und das ist möglich trotz dieser Youtuber. Man könnte nun auch fragen, welchen Sinn haben diese Leute, wenn die sich sowieso nicht für den Grafikkartenkäufer abseits von AMD interessieren?
Und das hier ist losgelöst von den anderen Sachen, die Gamernexus macht. Aber Funktionen von GPUs zu ignorieren, weil man kein Bock auf diese hat, ist eben ein reines subjektives Verhalten.
Du kannst ja heute so spielen, wie dieser Channel es dir jahrelang angepriesen hat - Im nativen 4K mit 20 FPS in UE5 Spielen mit Software-Lumen.
Das hat noch keine andere Grafikkarte dieser Generation geschafft: https://x.com/antispack/status/1924799176593842583
MfG
Raff
dildo4u
2025-05-20, 14:50:25
Ohne Undervolt nimmt sie bis zu 150 Watt kein Plan warum das so ausgeliefert wird.
https://youtu.be/4dHcDCvcVzU?si=hVgjlK0KDwuae0nu&t=215
Lehdro
2025-05-20, 14:53:00
Geschichtsrelativierung sondersgleichen.
Es geht um die Graphen mit den Latenzvorteilen, die waren fast ausschliesslich mit DLSS/FG/MFG + Reflex vs alles off. Jo danke. Wenn ich kein DLSS/FG/MFG habe oder gar will, präsentiert NV Reflex äußerst schwach - quasi gar nicht abseits der reinen Erwähnung des Features. Noch dazu ist es Standardmäßig fast immer ausgeschaltet, was komplett Banane ist, aber halt den Vergleich verbessert wenn man FG/MFG zuschaltet - denn dann wird auch Reflex automatisch aktiviert. Ein Schelm...
Und vergess nie, diese Channels haben sich null eingesetzt als AMD Publisher bezahlt hat DLSS aus den Spielen rauszuhalten und PC-Gamer einzig mit dem FSR Schrott zu beglücken. Es waren die PC-Spieler, die das festgestellt haben. Die Reviewer waren von Tag 1 gegen DLSS und somit nie eine Mauer gegen, wie du es sagst, "consumerfeindliches" Verhalten.
Ich zitier dich mal:
Geschichtsrelativierung sondersgleichen.
Es war HWU die ein riesiges Fass deswegen aufgemacht haben. (https://www.youtube.com/watch?v=m8Lcjq2Zc_s)
Es steht dir doch frei zu zeigen, dass Gamernexus die technischen Fortschritte von nVidia auch in seinen Test sauber abgebildet hat. Und nicht nur so nebenbei, weil die ja nicht wichtig wären.
Es steht GN frei zu zeigen was sie für wichtig erachten. Es steht NV nicht zu, zu verlangen das GN Werbung für NV macht. Versteh das doch endlich. Ich schaue PCGH/GN/HWU whatever um zu sehen wie diese die Hardware+Software bewerten und nicht um zu sehen wie NV meint dass PCGH/GN/HWU whatever diese zu bewerten haben.
Ja, NV kann dann bei Nichtgefallen gerne Karten zurückhalten, ihr gutes Recht. Aber Zugriff auf deren Ressourcen an Bedingungen außerhalb von NDA üblichen Sachen zu knüpfen ist moralisch und ethisch halt die unterste Schiene. Die einzige Bedingung sollte folgende sein: Es gibt ein Review zum Releasedatum. Mehr nicht.
ENKORE
2025-05-20, 15:41:11
GN hat doch diverse längliche Videos nur über DLSS und (M)FG gemacht, allein im Februar gab es mehr als ne Stunde an Reviews und Analysen. "Nicht nur so nebenbei"; kek. Insane member scheint es zu treffen :x
Für NV ging es ja einzig und allein darum per MFG FPS zu faken im Launchreview, nichts anderes ist für die relevant und nichts anderes ist der Streitpunkt.
Lehdro
2025-05-20, 16:09:39
Für NV ging es ja einzig und allein darum per MFG FPS zu faken im Launchreview, nichts anderes ist für die relevant und nichts anderes ist der Streitpunkt.
Eben, die Vorgabe war ja laut GN dass die MFG Werte IM SELBEN GRAPH auftauchen MÜSSEN. Nicht von wegen, "testet das bitte mit", nein, sie müssen im selben Graphen auftauchen.
Exakt. Und da das nicht passiert ist, haben sie sämtliche Kontakte zu GN abgebrochen. Die werden jetzt auch keine Samples mehr bekommen.
Meiner Meinung nach wird aber diese Politik, die NV da fährt, dazu führen, dass sie es sich mit allen großen Magazinen verscherzen und das ist einfach Selbstzerstörung.
Jay hats mMn ziemlich genau auf den Punkt gebracht:
https://youtu.be/a_CuOTK-XiY
Hakim
2025-05-20, 17:05:54
Zumindest die Selbstbau Gruppe scheint die Karte Links liegen zu lassen, 5060 die normal meist verkaufte Reihe jeder GF Gen bei MF nur 10+ verkauft. Ich weiß das es sich dennoch insgesamt viel verkaufen wird. Aber es ist unüblich das es so ruhig bei einem Launch ist
Sardaukar.nsn
2025-05-20, 18:05:00
Die deutschen Selbstbauer sind ja auch bereit deutlich mehr Geld für Grafikkarten auszugeben. In anderen Teilen der Welt wird das anders aussehen. Die 5060 wird sich international bei Steam schon irgendwo oben einreihen.
Das hat noch keine andere Grafikkarte dieser Generation geschafft: https://x.com/antispack/status/1924799176593842583
MfG
Raff
Nehm ich als passiv gekühlte Palit kalmX ohne zusätzlichen Stromstecker.
https://lh5.googleusercontent.com/proxy/Hv4NZkLmxBNZO_gO91RMoSKkl7Cd8iy4Pa14V9jzDAzW15zZZlmq9jjkpOVZlWuAbWNla5IeuWd33Mm4 nSkpv1vF0in_wPfRGTRiRDzVOsppQUkcqAsi3Xskx8Kde37AaZ-29rM
x-force
2025-05-20, 18:17:10
Nehm ich als passiv gekühlte Palit kalmX ohne zusätzlichen Stromstecker.]
das wäre die langersehnte 5030, dafür fehlt aber der 08er die
SentinelBorg
2025-05-20, 22:43:04
Jetzt lasst doch bitte das aktuell weltweit wertvollste Unternehmen in Ruhe ihr Miesepeter!!!111elf Die können sich doch gar nicht wehren gegen die pöhsen Steves.
Hakim
2025-05-21, 12:46:57
https://www.computerbase.de/news/grafikkarten/rtx-5080-super-angebliche-spezifikationen-mit-24-gb-vram-aufgetaucht.92782/
Bisher nur zum 5080 Super Gerüchte, Frage mich wann es zum 5070S gibt
An die Voll-Nerds hier (ausdrücklich positiv gemeint), ich bräuchte mal Feedback von euch. Findet ihr das geil? =) Resolution Scaling:
https://www.pcgameshardware.de/Geforce-RTX-5060-Grafikkarte-281134/Tests/Release-Test-Benchmarks-1472370/2/#a3
"Wer eine Grafikkarte für viele Jahre kauft, sollte die Ergebnisse daher besonders ernst nehmen. Maßgeblich ist der Einbruch mit steigender Auflösung, bei dem es klare Sieger und Verlierer gibt. So lassen die Geforce RTX 4060 und RTX 5060 in höheren Auflösungen signifikant Federn, während die Schere bei den anderen Grafikkarten nicht so weit aufgeht. Ob das nun primär an der Cache-Größe, Speichermenge oder PCIe-Anbindung liegt, können wir nicht mit Sicherheit sagen - wohl aber, dass die Geforce RTX 5060 Ti 16GB, Arc B580 12GB und sogar die alte Geforce RTX 3060 12GB diese Probleme nicht haben."
MfG
Raff
Schade, DGX Spark verzögert sich, und ich dachte, ich könnte schon Juni Juli eins in den Händen halten
hwluxx - DGX Spark - Mehr Vielfalt ab der zweiten Generation (https://www.hardwareluxx.de/index.php/news/hardware/komplettsysteme/66201-dgx-spark-mehr-vielfalt-ab-der-zweiten-generation.html)
Warum sich der GB10 Grace Blackwell Superchips derart verzögert hat, darüber kann nur spekuliert werden. Es gibt Gerüchte, die von einem Teildefekt einer Komponente sprechen, der wiederum dafür sorgt, dass der Chip nicht wie geplant in den Spark-Systemen eingesetzt werden kann. Ein Respin des Chips, als das Redesign, neuer Tape-Out, Validierung etc. kosten Monate und sorgen daher für Verzögerungen.
MSABK
2025-05-21, 23:09:28
Hmm, vlt auch der Grund warum keine kleinen Chips für Windows on ARM vorgestellt wurden?
An die Voll-Nerds hier (ausdrücklich positiv gemeint), ich bräuchte mal Feedback von euch. Findet ihr das geil? =)
Ohne den Artikel gelesen zu haben. Die Grafik ist nicht besonders gut - same old, Balken für Auflösungen skaliert wie üblich. Was du herausstellen willst, ist ein Resolution Score oder sowas wie ein Zukunftsfähigkeitsscore.
So wie es jetzt ist, ist es einfach das Performanceranking, und man muss selber schätzen, oder berechnen, wie viel die Karte nun verliert.
Was auch interessant wäre, da ihr ja Daten aus Jahrzehnten habt: ein statistischer Score welcher den tatsächlichen Wert der Verdopplung von VRAM über all die Jahre ermittelt: z.B. Verdopplung RAM bringt im Schnitt 1.5 Jahre mehr bei AMD, und 2 bei Nvidia. Ein Score für Nutzungsdauer bzgl verschiedener Komponenten.
Das sind die Dinge, die mir gerade auf dem Klo einfallen :biggrin:
An die Voll-Nerds hier (ausdrücklich positiv gemeint), ich bräuchte mal Feedback von euch. Findet ihr das geil? =) Resolution Scaling:
https://www.pcgameshardware.de/Geforce-RTX-5060-Grafikkarte-281134/Tests/Release-Test-Benchmarks-1472370/2/#a3
"Wer eine Grafikkarte für viele Jahre kauft, sollte die Ergebnisse daher besonders ernst nehmen. Maßgeblich ist der Einbruch mit steigender Auflösung, bei dem es klare Sieger und Verlierer gibt. So lassen die Geforce RTX 4060 und RTX 5060 in höheren Auflösungen signifikant Federn, während die Schere bei den anderen Grafikkarten nicht so weit aufgeht. Ob das nun primär an der Cache-Größe, Speichermenge oder PCIe-Anbindung liegt, können wir nicht mit Sicherheit sagen - wohl aber, dass die Geforce RTX 5060 Ti 16GB, Arc B580 12GB und sogar die alte Geforce RTX 3060 12GB diese Probleme nicht haben."
MfG
Raff
Das ist eine sehr gute Idee,
schön wäre auch wenn die Gängigen 21:9 Auflösungen mit aufgenommen werden könnten,
wobei ich allerdings k.a. habe wie verbreitet die mittlerweile sind.
Bisher rechne ich das ganze immer per Dreisatz über die Gesamtpixeldichte aus wo grob die Native Leistung liegt für Breitbild :freak:
Generell wäre es eine gute Informationsquelle für Leute wie mich die (leider) regelmäßig ihre Monitore tauschen.
Meine innere Stimme will mich zurzeit dazu überreden meinen 45“ LG OLED Monitor gegen den neuen LG 45“ Monitor mit 5K zu tauschen, der alte ist ja bereits 1,5 Jahre alt.:freak:
The_Invisible
2025-05-22, 13:08:10
Na gut bei 5k2k immer die schnellste GPU was gibt, fertig :freak:
Joa,
wäre trozdem schön zu Wissen wie die verschiedenen Karten bei 2560x1080/3440x1440/5120x2160 performen.
Sehr grade ich bin Blind zwei WQHD Auflösungen sind ja drinnen Raff, also ist super so ..:freak:
ich gehe dann mal in den Keller mich schämen
Lehdro
2025-05-22, 14:04:33
An die Voll-Nerds hier (ausdrücklich positiv gemeint), ich bräuchte mal Feedback von euch. Findet ihr das geil? =) Resolution Scaling:
Der Test ist gut und wichtig, aber die Präsentation ist armselig (sorry).
Was willst du darstellen? Wie gut die GPU skaliert mit höheren Auflösungen?
Dann dreh dein Diagramm um. Zeige absolute Negativwerte (in Prozent, Basis ist 1080p). Welche Karte verliert am wenigsten Performance in der jeweiligen Auflösung - die dann oben im Chart, dann nach unten absteigend.
Oder als einfachere Lösung im derzeitigem Format:
Du zeigst in deinem Diagramm welche Karte wie skaliert, aber halt mehr oder weniger relativ zueinander - weil du halt ohne Mausover nur die FPS siehst. Vielleicht solltest du die FPS als Mouseover festlegen und die % als sichtbare Basis? Denn wichtiger wäre es mMn zu zeigen, welche Karte absolut am wenigsten (oder am meisten) verliert, weil dass der Punkt ist den du eigentlich herausarbeiten willst, oder? Dafür sollten die Prozentwerte im Vordergrund stehen (natürlich mit derselben Basis pro Karte), weil man die direkt vergleichen kann, die FPS aber nur relativ. Ich hoffe das ergibt für dich Sinn.
Gutes Feedback, ich danke euch! :up: Ich werde mal darüber brüten.
MfG
Raff
x-force
2025-05-23, 13:06:35
Gutes Feedback, ich danke euch! :up: Ich werde mal darüber brüten.
MfG
Raff
ich halte die aussagekraft des ganzen für fragwürdig.
der zusammenhang zur zukunftsfähigkeit ist unklar.
die rechenlast wird in zukunft nicht linear skalieren, sondern noch stärker richtung tensor, ray und co gehen.
wenn aktuell die rops bei 1080p voll sind, aber erst die hälfte der rt cores ausgelastet sind, skaliert es auf 4k schlecht, aber bei gleicher auflösung ist noch potential für zusätliche rechenlast.
-> wenn eine karte wenig verliert, war man auf niedriger auflösung entweder ineffizient und recheneinheiten sind nicht voll ausgelastet, oder im cpu limit.
Troyan
2025-05-23, 14:46:06
An die Voll-Nerds hier (ausdrücklich positiv gemeint), ich bräuchte mal Feedback von euch. Findet ihr das geil? =) Resolution Scaling:
https://www.pcgameshardware.de/Geforce-RTX-5060-Grafikkarte-281134/Tests/Release-Test-Benchmarks-1472370/2/#a3
"Wer eine Grafikkarte für viele Jahre kauft, sollte die Ergebnisse daher besonders ernst nehmen. Maßgeblich ist der Einbruch mit steigender Auflösung, bei dem es klare Sieger und Verlierer gibt. So lassen die Geforce RTX 4060 und RTX 5060 in höheren Auflösungen signifikant Federn, während die Schere bei den anderen Grafikkarten nicht so weit aufgeht. Ob das nun primär an der Cache-Größe, Speichermenge oder PCIe-Anbindung liegt, können wir nicht mit Sicherheit sagen - wohl aber, dass die Geforce RTX 5060 Ti 16GB, Arc B580 12GB und sogar die alte Geforce RTX 3060 12GB diese Probleme nicht haben."
MfG
Raff
Die Aussage ist fragwürdig, da die Zukunft UE5 ist und mehr als 1080p hier sowieso nicht machbar ist.
Doom Dark Ages benötigt nicht mehr als 8GB in 1440p und die 5060 TI 8GB ist 82% schneller als die 3060 : https://www.techpowerup.com/review/doom-the-dark-ages-performance-benchmark/5.html
Merke: Ich habe immer Schlechtwetterkirschen gegen Schönwetterkirschenpflücker im Köcher: https://www.pcgameshardware.de/Doom-The-Dark-Ages-Spiel-74718/Specials/Test-Release-Review-Steam-Benchmarks-Raytracing-1471919/3/#a1 ;)
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=93055&stc=1&d=1748005890
MfG
Raff
Platos
2025-05-23, 18:11:27
Also mir gefallen die Tests bzw. Diagramme (aber dem Vorschlag von oben spreche ich nicht dagegen).
Finde das gut, dass du dich gut auf Speicher konzentrierst und aufzeigst, dass die Speicherkrüppel eben genau das sind.
Wird brauchen endlich (bezahlbare) 24/32GB Grafikkarten :)
An die Voll-Nerds hier (ausdrücklich positiv gemeint), ich bräuchte mal Feedback von euch. Findet ihr das geil? =) Resolution Scaling:
https://www.pcgameshardware.de/Geforce-RTX-5060-Grafikkarte-281134/Tests/Release-Test-Benchmarks-1472370/2/#a3
"Wer eine Grafikkarte für viele Jahre kauft, sollte die Ergebnisse daher besonders ernst nehmen. Maßgeblich ist der Einbruch mit steigender Auflösung, bei dem es klare Sieger und Verlierer gibt. So lassen die Geforce RTX 4060 und RTX 5060 in höheren Auflösungen signifikant Federn, während die Schere bei den anderen Grafikkarten nicht so weit aufgeht. Ob das nun primär an der Cache-Größe, Speichermenge oder PCIe-Anbindung liegt, können wir nicht mit Sicherheit sagen - wohl aber, dass die Geforce RTX 5060 Ti 16GB, Arc B580 12GB und sogar die alte Geforce RTX 3060 12GB diese Probleme nicht haben."
MfG
Raff
Ich fand und finde Auflösungsskalierung sehr wichtig. Egal ob in der Voodoo-Zeit oder später der GeForce-4-Ära. Okay Antialiasing wurde war damals noch echt (Super- oder zumindest Multi-Sampling), selbst eine 5900 XT (also eine langsam getaktete 5900) hatte dank 256-Bit-Interface die Fähigkeit, hohe Settings inklusive Antialiasing einfach zu fressen ohne groß Federn zu lassen. Die Karte war bei meinen Spielen auch in höheren Auflösungen gut brauchbar. Ein ähnliches Erlebnis hatte ich mit der 285 GTX 2 GB (ein Vorteil als damaliger EVGA-Mitarbeiter). Das Ding fraß einfach alles. AA, AF, höhere Auflösungen, wurscht. Also letztlich in beiden Fällen eine Art CPU-Limitierung.
Die GTX 9800 die ich zuvor hatte, war dank Unteraktung bei fixen 40% Lüfter-Drehzahl leise und vergleichsweise leistungsstark für ihre Zeit, aber Effekte und Auflösungen skalierten sozusagen linear.
So wie ich das sehe, skaliert die 5600 je nach Spiel sublinear. Das ist scheiße. Auch rein als Techniker finde ich es cringe, ein Produkt so unausgewogen zu gestalten. 5060 mit 12 GB RAM zu dem Preis und selbst jeder Steve würde Loblieder singen.
5060 Ti ausschließlich mit 16, eine 5070 mit 18 GB, und wir würden Raff nur noch grinsen sehen. Die Ti mit 24, die 5080 auch, die 5090 weiterhin mit ihren 32 GB, jeder würde Nvidia abfeiern. Und die 50-er Serie als echte Entwicklung preisen.
Und dann laucht NV eine 5050 mit 8 und eine 5040 mit 6 GB RAM zum entsprechenden Preis. Presse-Echo: Moderne Technologie auch endlich für Budget-Gamer, bei dem Speicher gibts natürlich Einschränkungen aber was will man machen.
Lawmachine79
2025-05-24, 00:33:54
Ich fand und finde Auflösungsskalierung sehr wichtig. Egal ob in der Voodoo-Zeit oder später der GeForce-4-Ära. Okay Antialiasing wurde war damals noch echt (Super- oder zumindest Multi-Sampling), selbst eine 5900 XT (also eine langsam getaktete 5900) hatte dank 256-Bit-Interface die Fähigkeit, hohe Settings inklusive Antialiasing einfach zu fressen ohne groß Federn zu lassen. Die Karte war bei meinen Spielen auch in höheren Auflösungen gut brauchbar. Ein ähnliches Erlebnis hatte ich mit der 285 GTX 2 GB (ein Vorteil als damaliger EVGA-Mitarbeiter). Das Ding fraß einfach alles. AA, AF, höhere Auflösungen, wurscht. Also letztlich in beiden Fällen eine Art CPU-Limitierung.
Die GTX 9800 die ich zuvor hatte, war dank Unteraktung bei fixen 40% Lüfter-Drehzahl leise und vergleichsweise leistungsstark für ihre Zeit, aber Effekte und Auflösungen skalierten sozusagen linear.
So wie ich das sehe, skaliert die 5600 je nach Spiel sublinear. Das ist scheiße. Auch rein als Techniker finde ich es cringe, ein Produkt so unausgewogen zu gestalten. 5060 mit 12 GB RAM zu dem Preis und selbst jeder Steve würde Loblieder singen.
5060 Ti ausschließlich mit 16, eine 5070 mit 18 GB, und wir würden Raff nur noch grinsen sehen. Die Ti mit 24, die 5080 auch, die 5090 weiterhin mit ihren 32 GB, jeder würde Nvidia abfeiern. Und die 50-er Serie als echte Entwicklung preisen.
Und dann laucht NV eine 5050 mit 8 und eine 5040 mit 6 GB RAM zum entsprechenden Preis. Presse-Echo: Moderne Technologie auch endlich für Budget-Gamer, bei dem Speicher gibts natürlich Einschränkungen aber was will man machen.
Ich habe von der 5900XT gelernt, dass es sich nicht lohnt, Fanboy zu sein. Seitdem stehe ich immer auf der Seite des Siegers.
x-force
2025-05-24, 01:47:46
so schön die wünsche auch sind, wir haben noch nicht weihnachten und das pferd springt nur so hoch wie es muss.
hätte amd einen doppelten navi 48 gebracht, stünde der 5090 ein gegner gegenüber.
über die salvages hätte nvidia auch überhalb der 5070ti einen gegner,
mit den entsprechenden salvages würde sich auch die lücke von 5080 zu 5090 schließen.
Platos
2025-05-24, 10:12:01
Insofern ist es in gewisser Weise sogar schädlich, ein Fanboy zu sein, denn dadurch muss AMD also quasi nicht besonders hoch springen, die fressen sowieso alles...(etwas übertrieben gesagt).
Das ist wie eine sich selbst erhaltende Blase. Wobei jetzt mit der Blackwellgeneration hätte AMD mit ihren neuerungen (die zum Teil durchaus sehr positiv sind) durchaus ein riesen Potential gehabt, mit viel Speicher und günstigem Preis ordentlich Druck zu machen und Marktanteile zu gewinnen.
Aber augenscheinlich will das keiner der 2 Marktteilnehmer neben nvidia. AMD hätte diese Generation wirklich richtig tief in nvidiaa Wunde drücken können. Aber sie lassen es bleiben und spielen Trittbrettfahrer.
basix
2025-05-29, 09:25:17
Nvidia Quartalszahlen: 44.1 Mrd. Umsatz
https://nvidianews.nvidia.com/news/nvidia-announces-financial-results-for-first-quarter-fiscal-2026
Wenn das so weiter geht, machen die im Fiskaljahr 2026 noch 200 Mrd. Umsatz.
Noch heftig:
Q2/2026 Outlook: Revenue is expected to be $45.0 billion, plus or minus 2%. This outlook reflects a loss in H20 revenue of approximately $8.0 billion due to the recent export control limitations.
Und auch interessant:
Die Gaming Sparte hat ein Rekordergebnis erreicht.
AffenJack
2025-05-29, 10:19:10
Nvidia Quartalszahlen: 44.1 Mrd. Umsatz
https://nvidianews.nvidia.com/news/nvidia-announces-financial-results-for-first-quarter-fiscal-2026
Wenn das so weiter geht, machen die im Fiskaljahr 2026 noch 200 Mrd. Umsatz.
Noch heftig:
Und auch interessant:
Die Gaming Sparte hat ein Rekordergebnis erreicht.
Die 8 Mrd weniger Umsatz sind einfach nur absurd. Einfach mal AMDs Umsatz, bzw zwei Drittel von Intel verloren und trotzdem erwartet man Umsatz nah am rekordquartal.
Aber Gamin überrascht mich am meisten. Hätte nicht gedacht, dass man wirklich soviel Gaming Blackwell ausgeliefert hat bei der Verfügbarkeitssituation.
basix
2025-05-29, 12:03:38
Bei Gaming könnte es mehrere Gründe geben:
- Generell erhöhte MSRPs
- Lovelace Lieferbarkeit Austrocknung vor Blackwell Release = Mehr unmittelbarer Bedarf
- Nintendo Switch 2
- Gaming-GPUs werden vermehrt in AI-Verbtriebskanäle geliefert
Wobei jetzt mit der Blackwellgeneration hätte AMD mit ihren neuerungen (die zum Teil durchaus sehr positiv sind) durchaus ein riesen Potential gehabt, mit viel Speicher und günstigem Preis ordentlich Druck zu machen und Marktanteile zu gewinnen.
Aber augenscheinlich will das keiner der 2 Marktteilnehmer neben nvidia. AMD hätte diese Generation wirklich richtig tief in nvidiaa Wunde drücken können. Aber sie lassen es bleiben und spielen Trittbrettfahrer.
AMDs Problem ist, dass sie noch nicht die entsprechende Stärke haben, um solch einen Power-Move zu machen. Die 9070er Karten sind preislich attraktiver als die Blackwell Gegenstücke, aber haben halt auch ein Feature und Mindshare Defizit.
Bei den 9060ern sieht es zudem etwas positiver aus. Die 9060XT 16GB für 349$ MSRP dürfte attraktiver sein als die 429$ der 5060Ti 16GB. Die relative preisliche Positionierung dürfte sehr ähnlich wie 9070XT zu 5070Ti sein, doch hier ist man generell sensitiver auf ein paar Euro Unterschied.
Was ich also vermute:
AMD will mit RDNA4 die Grundlagen für die nächsten Schritte legen. Gute Architektur ohne grössere Schwächen, Feature-Updates in HW (Matrix-Acceleration, RT) und SW (Lücken bei DLSS schliessen) und etwas bessere P/L als Nvidia. Das gibt mal positive Presse und Nutzerimpressionen. Blackwell hat zudem einiges an Negativpresse erhalten. Allein schon aus diesen Gründen wird AMD gut Marktanteile gewinnen. Bei der nächsten Generation werden sie wahrscheinlich 3 anstatt 2 Chips haben (ich vermute 128/192/256bit). Damit dürfte man den Bereich von 300...800$ abdecken können. Vielleicht sogar bis 1000$. AMD wird hier vermutlich nicht gross von der RDNA4-Strategie abweichen: Den Grossteil des Marktes bedienen. Letzte Feature-Lücken schliessen und generell besseres P/L bieten. Hier könnte AMD aber dann einen Gang höher schalten: >1.2x besseres P/L als Nvidia bei ~Feature-Parität kann man nicht mehr wegdiskutieren.
ENKORE
2025-05-30, 21:44:21
Seit Umstieg auf die Blackwell habe ich öfter das Problem, dass nach ca 20 Sekunden aus dem Aufwachen aus dem Standby die Bildschirme mehrmals Flackern. Im Eventlog finden sich korrespondierende Einträge. Meistens dauert es auch ein paar Sekunden länger als normal aus dem Standby aufzuwachen. *
A caller specified the SDC_FORCE_MODE_ENUMERATION flag in a call to the SetDisplayConfig() API
Im NV-Forum beschwert sich jemand bei Treiber 572.60 drüber (bin bei 576.28 aktuell):
https://www.nvidia.com/en-us/geforce/forums/game-ready-drivers/13/558073/geforce-grd-57260-feedback-thread-released-22725/3508488/
Kennt das jemand?
* Gerade eben z.B. hat's viermal geflackert:
21:24:06 RTC-Sync
21:24:17 The system has returned from a low power state.
21:24:54 SDC_FORCE_MODE_ENUMERATION
21:24:55 SDC_FORCE_MODE_ENUMERATION
21:25:06 SDC_FORCE_MODE_ENUMERATION
21:25:07 SDC_FORCE_MODE_ENUMERATION
basix
2025-06-12, 22:27:34
Noch interessante Details zu GB300 (Blackwell Ultra):
- Nvidia erhöht FP4 Duchsatz um 50%
- Im Gegenzug wird FP64 und INT8 massiv gestutzt
https://resources.nvidia.com/en-us-blackwell-architecture
1/32stel ist wirklich nur noch Basiskompatibilität. Meine Titan V lacht den "Ultra-Superchip" aus. ;D
MfG
Raff
Zossel
2025-06-12, 22:39:03
- Im Gegenzug wird FP64 und INT8 massiv gestutzt
Da werden sich diejenigen freuen die Wissenschaft durch Ideologie ersetzen wollen.
Da werden sich diejenigen freuen die Wissenschaft durch Ideologie ersetzen wollen.
Codename des Projekts ist also der große Mathematiker, Denker und Physiker Donald J. Dumb?
MfG
Raff
AffenJack
2025-06-13, 13:26:17
Noch interessante Details zu GB300 (Blackwell Ultra):
- Nvidia erhöht FP4 Duchsatz um 50%
- Im Gegenzug wird FP64 und INT8 massiv gestutzt
https://resources.nvidia.com/en-us-blackwell-architecture
Hab mich schon gefragt, wie es sein konnte, dass Dense FP4 gestiegen ist ohne das etwas anderes sich ändert. Jetzt weiß man immerhin was eingespart wurde. Also kann man die FP64 Units wohl relativ einfach umbauen, so dass am Ende mehr FP4 draus wurde.
Ob Nvidia jetzt FP64 komplett fallen lässt? AMD dürfte das mit verschiedenen Chiplets abbilden, aber bei Nvidia siehts danach aus, dass man sich komplett davon und damit eigentlich dem HPC Markt zurück zieht.
basix
2025-06-13, 13:55:11
Da bereits HPC Supercomputer mit Rubin angekündigt worden sind, dürfte Rubin eher wie B200 ausgestattet sein:
https://blogs.nvidia.com/blog/blue-lion-vera-rubin/
Leonidas
2025-06-18, 10:22:13
5090 DD
GB202-240
PG145 SKU 40
*for China market only
https://x.com/Zed__Wang/status/1935169786201391390
Leonidas
2025-06-18, 13:04:14
RTX 5090 DD?
PG145-SKU40
GB202-240-K*-A1
21760FP32
384-bit GDDR7 24G 28Gbps
575W
and there's a surprise.
https://x.com/kopite7kimi/status/1935253429334806686
OgrEGT
2025-06-18, 19:31:04
RTX 5090 DD?
PG145-SKU40
GB202-240-K*-A1
21760FP32
384-bit GDDR7 24G 28Gbps
575W
and there's a surprise.
https://x.com/kopite7kimi/status/1935253429334806686
Was könnte die Surprise sein?
Dass das Teil auch außerhalb China vermarktet wird oder dass das Teil mit 384bit gar nicht langsamer als die normale 5090 ist :ulol:
aceCrasher
2025-06-19, 16:21:02
Was könnte die Surprise sein?
Dass das Teil auch außerhalb China vermarktet wird oder dass das Teil mit 384bit gar nicht langsamer als die normale 5090 ist :ulol:
Da fragt man sich wirklich ob 384bit mit 3GB Modulen nicht von vornherein besser gewesen wäre. Man hätte trotzdem ausreichend Bandbreite durch GDDR7 und sogar mehr Speicher, gleichzeitig weniger Chipfläche durch das schmalere SI und ein weniger komplexes PCB. Vermutlich spricht die Verfügbarkeit der 3GB Module dagegen.
Lehdro
2025-06-19, 16:40:21
Da fragt man sich wirklich ob 384bit mit 3GB Modulen nicht von vornherein besser gewesen wäre. Man hätte trotzdem ausreichend Bandbreite durch GDDR7 und sogar mehr Speicher, gleichzeitig weniger Chipfläche durch das schmalere SI und ein weniger komplexes PCB. Vermutlich spricht die Verfügbarkeit der 3GB Module dagegen.
Den 512 Bit Bus kann man mit 3 GiB Modulen auch gut verhökern - sogar doppelseitig. Das Potenzial daraus eine 96 GiB RTX Pro 6000 (https://www.nvidia.com/de-de/products/workstations/professional-desktop-gpus/rtx-pro-6000/) zu basteln wollte sich NV sicherlich nicht entgehen lassen.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.