Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia Blackwell (Nachfolger von Hopper & Ada, 2024/25)


Seiten : 1 2 3 4 [5]

Altehardware
2024-04-24, 07:44:13
Das macht durchaus Sinn da man die architektur vorstellt und keine Sku
Das wiederum deutet auf eine ai karte hin die auf gb202 basiert mit nen teaser zur rtx5090 mit dem gb203
release könnte sogar dann im juli kommen aber ich ahne das man zur computex nen teaser zur ai karte macht und erste infos erst zur siggarath im august gibt was ein release dann üblich sept zur gamescom sein wird.
Dann aber nur die gb205 und gb206 chips mit nen refresh der ada gen als 5060er sku
Blackwell kommt in sf4x und n4 node dieser ist verfügbar nicht n3
darum haben sich alle Vermutungen zum 2025 release egalisiert. Kann sein das die Verfügbarkeit bis dahin eher mau ist

Sardaukar.nsn
2024-04-26, 09:02:40
Nvidia gibt Gas. Am 2. Juni ist es wohl soweit: https://www.gamestar.de/artikel/special-keynote-nvidia,3412389.html

Linmoum
2024-04-26, 09:36:27
Da interpretiert Gamestar schön viel rein. Wenn GeForces da angekündigt werden, würde das im Prinzip schon auf einen Launch im Juli hinauslaufen. Was man quasi schon aus saisonalen Gründen ausschließen kann, weil sowas die denkbar schlechteste Jahreszeit ist.

Radeonfreak
2024-04-26, 09:39:57
RTX Racer wird endlich vorgestellt? :freak:

Fragman
2024-04-26, 09:42:06
RTX Racer wird endlich vorgestellt? :freak:

2.0 wird gezeigt und eine Veröffentlichung für "soon" angekündigt. :freak:

AffenJack
2024-04-26, 10:08:16
Als ob da was für Gaming käme. Das wird nur: AI, AI, AI, AI....

The_Invisible
2024-04-26, 10:30:26
Da interpretiert Gamestar schön viel rein. Wenn GeForces da angekündigt werden, würde das im Prinzip schon auf einen Launch im Juli hinauslaufen. Was man quasi schon aus saisonalen Gründen ausschließen kann, weil sowas die denkbar schlechteste Jahreszeit ist.

Hätte nichts dagegen, das war auch zu Mining Zeiten der beste Zeitpunkt um an Grafikkarten zu kommen. Vielleicht lässt er aber zumindest ein paar Teaser springen, glaubs aber auch nicht.

MiamiNice
2024-04-26, 12:37:43
Nvidia gibt Gas. Am 2. Juni ist es wohl soweit: https://www.gamestar.de/artikel/special-keynote-nvidia,3412389.html

Das ist das Datum an dem Lederjacke schon mal vorsichtig durchblicken lässt, das die neuen karten sehr hart zu produzieren sind und man sich auf höhere Preise einstellen soll ;)

Sardaukar.nsn
2024-04-26, 13:02:29
Ohne etwas Exklusivität wäre es doch langweilig. Vielleicht gibt es auch wieder neue Stecker 😇

Exxtreme
2024-04-26, 13:04:03
Ohne etwas Exklusivität wäre es doch langweilig. Vielleicht gibt es auch wieder neue Stecker 😇
12VVHPWR-Stecker. 12 Volt Very High Power. X-D

Radeonfreak
2024-04-26, 13:05:30
Wurde schon angeteasert.

https://i.ytimg.com/vi/JFEnTjl1AxU/mqdefault.jpg

The_Invisible
2024-04-26, 13:44:41
Hoffentlich der Elektriker Einsatz schon inkludiert :D

Altehardware
2024-04-26, 14:10:56
Wird wohl ne genaue Erklärung wie blackwell funktioniert und ne ai karte vorgestellt. Der letzte leak spricht von 256alu per sm das wär ne Verdoppelung der Einheiten je sm und würde massiv die perf steigern bedingt aber größere chips das deutet eher an das es in n3 ist Das aber dürfte ausgeschlossen sein
Folglich hat man die dichte erhöht und somit den Takt reduziert 192alu per sm wäre eher denkbar wie ich seit Monaten predige. 256 alu per sm ist mit n4 node nicht umsetzbar dafür braucht es zwingend gaa samsung 18% dense in sf3 und mit sf3x dann doe vollen 50%
aus 609mm² wird gleicher chip etwa 392mm sein
aber samsung sf3x kommt erst 2026 tsmc n2x erst 2027
Daher dürfte das Gerücht sich auf irgendein software feature beziehen das teils in hardware beschleunigt wird etwa ähnlich zu amd dual issue was in fakt doppelte Datenwege bedeutet das kostet diefläche womit nur eins sein kann die Lösung von mir macht am meisten sinn.

Doppelte L1 in alu vergrößert den chip um 25% ohne das die alu mehr werden das kann nicht sinnvoll sein.
mehr cache bewirkt nur das die alu mehr zutun bekommen dafür braucht es aber mehr Takt.
Den n4 node nicht geben kann maxed wären 3,1ghz an datenmangel für die rt cores mangelt es nicht eher fehlt compute und das über fp64 befehle also dann 4 operation per clock umzusetzen brauchtes ne neue Treiber Architektur und sheduler
Das wäre möglich würde aber weniger Takt bedeuten und zwar die hälfte aus 2,8ghz wird maximal inklusive n4 Verbesserung etwa 1,5ghz bedeuten.
Folgende formel 192*128*4*1,5=147 nv tf real dann 101tf vs aktuell 63tf =+60%
In dxr ist der gewinn eher marginal maximal sind das 38% aber man hat ja 192sm vs 144sm
nenn salvage chip vermutlich 160sm wäre dann maximal +29% schneller in dxr
Das bringt nix zumal die chips dann riesig werden gb202 min 761mm² gb203 min 641mm²
das ist nicht wirtschaftlich und somit dürfte die dual issue per sm nicht stimmen. Mehr cache bringt nix.
Gpu sind linear nicht Out of order fähig. Daher bringt mehr cache nix da wo es helfen kann ist beim vorladen von daten aus den vram das erhöht die Bandbreite des vram mehr bringt es nicht Und das muss vor dem si sein Und über einen L3 cache gelöst sein wie amd es macht.
nvidia kann nur zwei Wege gehen mehr Takt und somit zwingend n3 node um dann 3,6ghz zu erreichen oder die sm Struktur auf 192 alu per sm erhöhen. Letztere würde die dxr Perf massiv steigern. Während 800mhz mehr Takt maximal +8% bringen.
In raster ist man sowieso am limit da die cpu's das nicht auslasten können. An Bandbreite mangelt es derzeit auch nicht alles über 800gb/s reicht aus selbst in 2160p
also ein dual issue mit software den alu mehr zutun zu geben macht keinen Sinn selbst für die rt cores nicht den die haben kein Speicherproblem.
Die perf daten beziehen sich auf dxr Leistung nicht raster die steigt linear an aber kann aktuell nicht ausgereizt werden.

TheCounter
2024-04-26, 16:10:41
Wurde schon angeteasert.

https://i.ytimg.com/vi/JFEnTjl1AxU/mqdefault.jpg

Passt, hab hier extra noch eine ungenutzte Starkstromleitung in der Wand :D

Muss nur ein entsprechender Stecker dran :ugly:

Wuge
2024-04-26, 16:35:30
Ich sag euch was... wegen mir kann das Ding eine eigenes Netzteil mitbringen oder ein VRM mit 230V Eingang und Kaltgerätestecker am Slotblech haben. 4090 OC + 100% und ich bau mir das auf xD Bitte bitte nicht nur Ai-salvage Kleinkram.

Zossel
2024-04-26, 17:20:24
Ich sag euch was... wegen mir kann das Ding eine eigenes Netzteil mitbringen oder ein VRM mit 230V Eingang und Kaltgerätestecker am Slotblech haben. 4090 OC + 100% und ich bau mir das auf xD Bitte bitte nicht nur Ai-salvage Kleinkram.

Ich plädiere immer noch für dafür diese Monster-GPUs extern zu bauen.

OgrEGT
2024-04-26, 17:49:06
Passt, hab hier extra noch eine ungenutzte Starkstromleitung in der Wand :D

Muss nur ein entsprechender Stecker dran :ugly:

Bei dem Stecker kann man sich zumindest sicher sein dass der funktioniert :ulol:

Sardaukar.nsn
2024-04-26, 18:15:27
Ich plädiere immer noch für dafür diese Monster-GPUs extern zu bauen.

Kommt auf den Kühler an, gibt ja auch zierliche Exemplare: https://i.imgur.com/AHWEhCV.jpeg

Zossel
2024-04-26, 18:32:33
Kommt auf den Kühler an, gibt ja auch zierliche Exemplare: https://i.imgur.com/AHWEhCV.jpeg

Es geht ja darum sich diesen ganzen Aufriss mit H2O, gammeligen Steckern und riesigen Computergehäusen zu schenken, und das ganze in eine Kiste zu stecken die konstruktiv darauf ausgelegt ist leise viel Luft um eine GPU und ein Netzteil zu blasen.

Sardaukar.nsn
2024-04-26, 19:18:24
Dann würde ich mir sowas wie ein Fractal Design Torrent anschauen welches auch starke Hardware leise kühlt: https://www.computerbase.de/2022-05/next-gen-grafikkarten-gehaeuse-kuehlung/#abschnitt_die_konfiguration_des_fractal_design_torrent

iamthebear
2024-04-26, 21:32:46
Ist jetzt etwas Off Topic: Aber Achtung bei der Kombination des Torrent mit 12VHPWR GPUs. Da das Netzteil oben sitzt sind die vom Netzteilhersteller mitgelieferten Kabel gerne mal zu kurz (gerade erst mit be quiet gehabt). Dann kann man nur mehr den Adapter aus der GPU Box verwenden und an die 8 Pin Anschlüsse hängen.

[MK2]Mythos
2024-04-26, 22:39:22
Wurde schon angeteasert.

https://i.ytimg.com/vi/JFEnTjl1AxU/mqdefault.jpg
Unwahrscheinlich aus zwei Gründen:
1) Ists ein etablierter Standard und sowas macht nvidia keinen Spaß und bringt nicht genug zusätzliche Kohle
2) Funktioniert der Anschluss und ist handhabungssicher

:freak:

Altehardware
2024-04-26, 22:58:17
Wäre ne idee nen drehstrom Stecker in klein hat doch was

mksn7
2024-04-30, 11:49:46
Wird wohl ne genaue Erklärung wie blackwell funktioniert und ne ai karte vorgestellt. Der letzte leak spricht von 256alu per sm das wär ne Verdoppelung der Einheiten je sm und würde massiv die perf steigern bedingt aber größere chips das deutet eher an das es in n3 ist Das aber dürfte ausgeschlossen sein


Eine Verdopplung von 64 auf 128 FP32 units hat bei Ampere doch die performance schon so dramatisch erhöht, wieviel soll da bei 128 -> 256 rumkommen?



Doppelte L1 in alu vergrößert den chip um 25% ohne das die alu mehr werden das kann nicht sinnvoll sein.
mehr cache bewirkt nur das die alu mehr zutun bekommen dafür braucht es aber mehr Takt.


Die L1 Kapazität ist schon recht großzügig mit den 128kB, zumindest wenn man sich anschaut dass AMD da mit 32 kB rumkrebst. Eine Erhöhung würde die Architektur etwas an die HPC Brüder angleichen. Ich glaube aber nicht dass dadurch viel IPC rumkommt. Schon eher eine Erhöhung der L1 cache Bandbreite. Da haben Ada/Ampere mit 64B/cycle/SM, bzw. 16 LSU/SM die Hälfte im Vergleich zu den HPC Brüdern und sogar im Vergleich zu RDNA2.

basix
2024-04-30, 17:56:45
H100 hat 256kByte L1$, da ist noch Luft nach oben ;)

Bei einer FP32 Verdopplung müsste man vermutlich auch die Scheduler aufbohren, damit das wirklich was bringt.

af7473
2024-04-30, 22:31:44
Ich wette Blackwell wird 5 mal größer und schneller wie 4090, aber auch nur 5 mal teurer so 8k.

af7473
2024-04-30, 22:39:42
Aber dafür kriegt man schon 2024 die Zuckunft serviert. Bis ein normaler Sterblicher dann sich solche Leistung für 300 euro kaufen kann also mid range gpu und diese Leistung dann auch endlich wirklich was nutzt, sind wir im Jahre 2030+.
Ich finde es richtig, dass AMD das nicht mitmachen will und eher für die breite Masse anbieten möchte. Das Moto hier kann nur heißen Entschleunigung. Ich habe Intel ARC 750 für 200 Öcken. Ist hier nur meine nur gantz persönliche Meinung.

af7473
2024-04-30, 22:46:12
Bevor ich mich für ARC entschieden habe, habe ich ganz kurtz mit Hopper geliebäugelt fur 35 000, aber dann hätte ich mir selbst entsprechende Spiele programieren müssen um die auszureizen.

Sardaukar.nsn
2024-04-30, 22:58:29
@af7473: Fänd ich fair. Bei den CPUs müssen wir uns mit deutlich weniger Steigerung bei der Leistung zufrieden geben.

BlacKi
2024-04-30, 23:50:30
wenn kein 3nm kommt, und die caches nicht groß wachsen, bzw. die chipfläche, dann wird der performance jump max bei 30-40% bleiben. und die 5090 wird trotzdem mehr saufen als die 4090, vermutlich wirds dann wenigstens OC potential geben. eine gen, die man gut und gerne skippen kann.

iamthebear
2024-05-01, 00:54:36
Eine Verdopplung von 64 auf 128 FP32 units hat bei Ampere doch die performance schon so dramatisch erhöht, wieviel soll da bei 128 -> 256 rumkommen?

1.) Wenn du damit Ampere vs. Turing meinst:
Turing hatte 64FP32 und 64INT Einheiten
Ampere hatte 64FP32 Einheiten und 64 Kombieinheiten, die je nach Auslastung sowohl INT als auch FP32 Operationen ausführen konnten aber nicht beides gleichzeitig.

Bei reinen FP32 Workloads ist es eine Verdopplung.
Bei 50% INT Anteil oder höher bringt es gar nichts.
Laut Nvidia ist der INT Anteil bei durchschnittlich ca. 25%. Damit liegt die Wahrheit in der Mitte und es entspricht in der Praxis eher einer 50% Erhöhung und die Performance hat fast linear mehr der realen Rohperformance skaliert (68 Turing SM der 2080 Ti = 46 Ampere SM der 3070)

Turing ist übrigens die Ausnahme, da hier der Aufbau der Datacenterreihe verwendet wurde. Ansonsten hatten seit GTX900 alle Gamingkarten 128 FP32/SM.

2.) Was würde also passieren, wenn man einfach auf 256FP32 pro SM verdoppeln würde?
Die Antwort dürfte wohl sein: Nicht viel
Nvidia hatte mit der GTX600/700 schon einmal 2 Generationen mit 192FP32/SM und ist mit der GTX900 runter auf 128FP32/SM. Ergebnis waren 55% mehr Performance der 980 Ti vs. 780 Ti bei nur ca. 10% mehr die size am gleichen Node.

Ich denke damut das alles skaliert müsste so gut wie alles verdoppelt werden und dann stellt sich die Frage wieso nicht gleich doppelt so viele SMs.

3.) Das Hauptproblem bei Ada scheint zu sein, dass die Performance ab 76SMs aufwärts nicht mehr linear skaliert selbst wenn Speicherbandbreite etc. mitskaliert werden.
Dieses Problem muss Nvidia lösen weil sonst werden aus 50% mehr SMs und Bandbreite nur 20% Performance raus schauen.

af7473
2024-05-01, 13:50:40
@af7473: Fänd ich fair. Bei den CPUs müssen wir uns mit deutlich weniger Steigerung bei der Leistung zufrieden geben.[/QUOTE]


Ich meinte ja nur, dass schon heute eine GPU möglich wäre, die 5 mal schneller ist als 4090 ti, für 10 000 k. Der Preis ist hier entscheidend. Für die meisten sind halt 1600 Euro für 4090 sogut wie 10 000, uninteressant. Eine GPU für 300 ist aber praktisch 6 Jahre alte GPU.

af7473
2024-05-01, 14:05:59
GTX 1060 wurde est vor 1 Jahr auf steam von 3060 als Nummer 1 abgelöst, ist immer noch die Nummer 2.
Die 4090 ist wohl 15 mal schneller. Und jetzt wir 1060 halt 40 mal langsamer als Blackwell. HaHaHa

af7473
2024-05-01, 14:11:02
Besser wäre es, man hätte günstige mid range gpu, die sich massenhaft ausbreiten z.B. 4070 ti als der ist Zustand. Spiele werden wohl immer auf Durchschnitt entwickelt.

woodsdog
2024-05-01, 16:59:00
Du darfst auch gerne mehr als eine Zeile pro Beitrag schreiben, müssen nich 3 Beitrage sein :freak:

mksn7
2024-05-01, 17:55:42
1.) Wenn du damit Ampere vs. Turing meinst:
[...]
Die Antwort dürfte wohl sein: Nicht viel

Du hast natürlich Recht mit all deinen Ausführungen, ich ziehe auch den gleichen Schluss wie du. Ich hoffe die Ironie in meinem Post war klar.


Ich denke damut das alles skaliert müsste so gut wie alles verdoppelt werden und dann stellt sich die Frage wieso nicht gleich doppelt so viele SMs.

Jedes mal wenn ich mir Gedanken mache, wie aus mehr execution units mehr Leistung herausgeholt werden soll, komme ich zu genau dem gleichen Schluss wie du, man hat halt mehr SMs am Schluss.


3.) Das Hauptproblem bei Ada scheint zu sein, dass die Performance ab 76SMs aufwärts nicht mehr linear skaliert selbst wenn Speicherbandbreite etc. mitskaliert werden.
Dieses Problem muss Nvidia lösen weil sonst werden aus 50% mehr SMs und Bandbreite nur 20% Performance raus schauen.

Ich denke das ist allgemein ein Problem von breiter werdenden GPUs mittlerweile. Spielegrafik hat halt doch nicht unendlich viel Parallelität zu bieten. Deswegen ja auch der Trend zu viel mehr Takt in den letzten Jahren. Oder der Versuch von RDNA die single thread performance im Vergleich zu CDNA zu steigern.

Also doch mehr issues aus dem gleichen thread pro Takt, um die single thread performance zu erhöhen? triple-issue? Das ist schon wieder schwierig für die register files...

Altehardware
2024-05-01, 20:47:31
Hurra ihr habt cpu limit gefunden
Das problem erkannte ich schon 2019 zum ende der ps4 pro
Dann kam zen2 und die welt war bissl besser und dann zen3 was das cpu limit aufhob bis zur rtx2080ti und jetzt kommt im Sommer zen5 und wird ne rtx4090 endlich mal auslasten in raster.
man bedenke das die rtx5090 nur den gb203 haben wird 128sm a152 oder 88fp32 mit 3 operationen per clock beides macht am ende die gleiche perf.
erstere idee wäre deutlich schneller in dxr und man hat die Auslastungsprobleme nicht

HOT
2024-05-02, 08:06:10
Da zeichnet sich bei NV aber ne krasse Upsellingstrategie ab. MLID meldet, dass die 5080 nicht vor 25 zu erwarten ist, die kleinen Karten überaupt nicht erst mal. Auch die Mobil 5080/90 sind beide GB203-Basis.
Nur die 5090 soll schnell verfügbar sein, damit hätte NV die 5090 fast 1/2 Jahr allein auf dem Markt. Schon die überteuerte 4080 wirkte als Upselling-Katalysator, die neue erst gar nicht zu bringen, dürfte noch krasser wirken. Entweder du gibst 1600€+ aus, oder du bekommst keine neue Technik. Ich wette, dass die Erpressungsstrategie aufgeht.

W4RO_DE
2024-05-02, 12:56:05
Wenn die RTX 5090 beispielsweise im Oktober/November auf den Markt kommt und die RTX 5080 auf der CES vorgestellt wird und im Januar/Februar auf den Markt kommt, sprechen wir von 3 Monaten. Das wäre ziemlich normal. Generell sehe ich aber keine Veranlassung, Äußerungen von MLID zur Diskussionsgrundlage zu machen.

P.S. "Erpressungsstrategie" lol

Zossel
2024-05-02, 13:30:36
Ich wette, dass die Erpressungsstrategie aufgeht.

Davon wären ja nur Junkies betroffen.

mksn7
2024-05-02, 13:34:40
Hurra ihr habt cpu limit gefunden
Das problem erkannte ich schon 2019 zum ende der ps4 pro
Dann kam zen2 und die welt war bissl besser und dann zen3 was das cpu limit aufhob bis zur rtx2080ti und jetzt kommt im Sommer zen5 und wird ne rtx4090 endlich mal auslasten in raster.
man bedenke das die rtx5090 nur den gb203 haben wird 128sm a152 oder 88fp32 mit 3 operationen per clock beides macht am ende die gleiche perf.
erstere idee wäre deutlich schneller in dxr und man hat die Auslastungsprobleme nicht

CPU Limit ist/war schon länger immer wieder ein Grund für schlechte Skalierung mit steigenden unit counts. Die Lösung sind schnellere CPUs und bessere APIs.

Aber unabhängig davon gäbe es auch mit einer unendlich schnellen CPU Skalierungsprobleme. Wenn die Anwendung lauter kleine draw calls mit jeweils 100 Pixeln absetzt, und dabei (vielleicht unbeabsichtigt) die API Semantik verlangt dass jeder draw call komplett fertig ist bevor der nächste startet? Wie viele cycles braucht der vertex shader für drei vertices? Wie lange bis der rasterizer die 5 resultierenden Pixel weitergegeben hat, bis die pixel shader ihre Arbeit aufnehmen, der pixel shader komplett durchgelaufen ist?

Da hilft keine breitere GPU, sondern nur single thread performance, eine Metrik über die man bei GPUs selten spricht. Ich bin kein Grafikentwickler sonder komme aus der HPC Ecke, daher kann ich nicht 100% beurteilen wie realistisch dass oben genannte Szenario, dass draw calls hart seriell bearbeitet werden, tatsächlich vorkommen. Das ist natürlich ein Szenario dass sich durch bessere Programmierung lösen lassen würde.

Ich hab mal ein bisschen mit CUDA kernel call overhead benchmarks rumgespielt. Also ganz andere API als DirectX/Vulkan, aber schonmal eine Größenordnung. Da komme ich auf 1000-1500ns pro Kernel call für back-to-back kernel calls auf einer L40 (4090 Äquivalent). Das kann man ca 5000 mal in einer 120Hz frame time machen. A100/H100 sind langsamer, wegen weniger Takt, die brauchen eher 2500ns.

(RDNA2 ist mit ~2500ns leider langsamer als CDNA/GCN, aber das liegt vermutlich eher an ROCm)

Gleichzeitig messe ich ca. 1000 cycles für einen kernel in dem jeder thread ein A[i] = B[i]*1.2f ausführt und der mit einem Minimum an threads (32 pro SM), also single thread/warp pro SM läuft, und ein nicht ausgelastetes (~10%) Speicherinterface. Die Hälfte der Zeit ist die DRAM latenz, der Rest muss der ganze Rest sein den ein thread so macht um zu starten und zu initialisieren. Höhere single thread performance würde helfen das zu reduzieren und auch mit wenig threads gute Leistung zu erreichen.

Weltraumeule
2024-05-02, 15:19:47
Wann wird denn schätzungsweise Blackwell veröffentlicht und kaufbar sein? Ich meine jetzt aber die 70er Reihe davon. Wird z.B. eine 5070 (TI) wohl die Leistung einer 4080 erreichen, das bei einer 2,5 Slot Kühlung? Und 700 € nicht überschreiten? Was sagen eure Glaskugeln?

Altehardware
2024-05-02, 15:21:50
Gpu sind strikt linear wie man aber die game engine das aufteilt ist Sache der cpu sheduler aber im Grunde das reine rasterizer ist linear
daher ist die api hier entscheidnt dx9 kann kein multitrhead dx10 fängtes an bis zu 4threads wo amn als entwickler die gaem engine arbeit aufteilen kann und mit dx11 an bis heute dx12 kann man bis zu 8 threads skalieren wobei bei 6 Schluss ist mehr bringt nix mehr.
Die meisten programmieren aber in high level also keinen Kopf wie die game engine das umsetzt
Das wird mit dx12 zum problem da der zugriff vom Speicher vom Entwickler gemacht werden muss darum oft diese miese perf bei den dx12 spielen.
Aber ja gpu sind strikt linear und die Skalierung über die alu breite ist möglich aber nur dann wenn die cpu höher Takten.
Ne cpu arch Verbesserung also ipc hilft schon aber nicht stark dafür braucht es befehlsätze die erst in den game engines genutzt werden müssen. Da sind die Entwickler noch bei cpu von 2011
Es reicht schon aus wenn mal avx2 genutzt würde das wären cpu ab 2013
Die Beschleunigung ist lediglich ne register Vergrößerung das kann der ipc in spielen helfen wird aber derzeit nicht genutzt
So tief in der renderpipeline programmiert keiner mehr.
man haut einfach der api die befehle um die Ohren damit fps raus kommen. lediglich das Speichermangdment passt man an.
Was die cpu ausspuckt interessiert den lieben Spiel Programmierer nicht.

Die ideale gaming cpu ist Hoher takt damit kurze latenzen beim L3 cache und viel L3 hilft hier gewaltig. Da weniger zugriff auf dem lahmen ram. Deswegen profitieren die x3d chips so sehr.
das gab es schon mal mit intels L4 cache bei der broadwell arch 2014 1 ghz weniger Takt dennoch schneller als die 4,5ghz skylake cpu.
zen 5 wird auch wieder ein ordentlichen sprung machen da die cache arch geändert wird weniger zyklen zum refresh = kürzere Latenz 1-1 perf Zuwachs in ipc
Möglich wäre L3 von nur 7ns aktuell sind wir bei 9ns. 28% mehr fps im besten fall
Die norm wird eher die hälfte sein also 15% ich sagte ja die rtx4090 könnte erstmals in raster nativ 4k ausgelastet werden das sieht man dann an 450w 100% gpu load in spielen
Die fps werden dann mit Sicherheit von den rop limitiert

man hat bei cpu zwei Wege um mehr fps zu bekommen Takt oder mehr cache mit weniger Taktzyklen
Die Besonderheit bei nvidia ist das die gpu eine Software sheduler hat der bis zu 6 renderpipelines unterstützt entsprechend weniger bei anderen sku
Eine renderpipelien sind 2 gpc =1tpc amd ist das nicht anders derzeit 6 render pipeline aber in hardware daher sind amd gpu explizit auf die entwickler angewiesen das diese den multithread aufteilung der command list beachten (dx10 an liste für multithred bei cpu für drawcalls)
Nvidai bringt das mit ihren Treibern frei haus mit.
Aufgrund der maximal 6 render skaliert man 1-1 wie die game engine bis auf 6 threads skaliert das geht nicht immer linear. und sackt ab 4 thread oft ab.
da aber gb203 aber nur 4 render engines haben wird (8*24sm) dürfte die rtx4090 deutlich geschlagen werden in fps trotz beinahe gleiche tf

man sieht trotz mehr alu wird die Leistung größer die cpu allerdings hat ihren Einfluss und die rtx4090 muss ein cpu limit test Erfahren nach release der ryzen r7 9800x vs r7 7800x3d
grob sehe ich den 112sm entweder mit 88fp32 mal 3 oder 152 mal 2,3ghz +42%
ich gehe sogar davon aus das dies die titan b wird. Das würde auch die frühe Ankündigung zur computex erklären
am ende sage ich nur man kann per software ne menge herausholen wenn man will aber gpu an sich sind linear.

Leonidas
2024-05-02, 15:42:00
Wann wird denn schätzungsweise Blackwell veröffentlicht und kaufbar sein? Was sagen eure Glaskugeln?

5090 - Jahresende
5080 - mit Glück Jahresende, ansonsten danach
5070 usw. - 2025

BlacKi
2024-05-02, 15:53:32
Wann wird denn schätzungsweise Blackwell veröffentlicht und kaufbar sein? Ich meine jetzt aber die 70er Reihe davon. Wird z.B. eine 5070 (TI) wohl die Leistung einer 4080 erreichen, das bei einer 2,5 Slot Kühlung? Und 700 € nicht überschreiten? Was sagen eure Glaskugeln?700€? vl nicht ganz mitte 2025, aber in richtung.

The_Invisible
2024-05-02, 16:31:55
Wann wird denn schätzungsweise Blackwell veröffentlicht und kaufbar sein? Ich meine jetzt aber die 70er Reihe davon. Wird z.B. eine 5070 (TI) wohl die Leistung einer 4080 erreichen, das bei einer 2,5 Slot Kühlung? Und 700 € nicht überschreiten? Was sagen eure Glaskugeln?

70er kommt wieder später, tippe mal Q2 2025, da AMD in dem Bereich auch mitmischt dürfte es wohl nicht so abgehoben sein, lets see...

Zossel
2024-05-02, 18:48:15
CPU Limit ist/war schon länger immer wieder ein Grund für schlechte Skalierung mit steigenden unit counts. Die Lösung sind schnellere CPUs und bessere APIs.

Aber unabhängig davon gäbe es auch mit einer unendlich schnellen CPU Skalierungsprobleme. Wenn die Anwendung lauter kleine draw calls mit jeweils 100 Pixeln absetzt, und dabei (vielleicht unbeabsichtigt) die API Semantik verlangt dass jeder draw call komplett fertig ist bevor der nächste startet?

Muss der erste Call nur fertig sein oder braucht der nächste Call die Ergebnisse aus dem ersten Call?

Ist das ein Setup wo die CPU was an ein PCI-Device absetzt oder ist das eine "APU" mit cohärenten Speicher, also ein Coprozessor?

mksn7
2024-05-03, 15:31:59
Muss der erste Call nur fertig sein oder braucht der nächste Call die Ergebnisse aus dem ersten Call?

Ist das ein Setup wo die CPU was an ein PCI-Device absetzt oder ist das eine "APU" mit cohärenten Speicher, also ein Coprozessor?

Ich spreche hier insgesamt von GPUs im Allgemeinen.

Soweit ich das verstehe, dürfen aufeinanderfolgende draw calls in das gleiche frame buffer attachment ohne state change (texture, shader, usw...) schon stark überlappen. Es gibt hardware in den ROPs die dann sicherstellt dass ein späterer draw call einen früheren übermalt, wenn sie die gleichen Pixel mit gleicher depth ausgeben. Da treffen dann meine Überlegungen nicht zu.

Ich glaube es gibt aber schon einige Operationen mit echten oder nur impliziten, falschen Abhängigkeiten, wo die vorher laufenden Berechnungen komplett abgeschlossen sein müssen bevor das nächste kommt. Z.b. fürs shading müssen die shadow maps vorher fertig sein (echte Abhängigkeit).

Sowas wie state changes (andere texture/shader usw) implizieren Abhängikeiten die von der Logik gar nicht da sind. Aber wie gesagt, das bisschen OpenGL das ich bisher programmiert habe qualifiziert mich nicht da echte Aussagen zu machen.

Hübie
2024-05-03, 15:43:01
Wann wird denn schätzungsweise Blackwell veröffentlicht und kaufbar sein? Ich meine jetzt aber die 70er Reihe davon. Wird z.B. eine 5070 (TI) wohl die Leistung einer 4080 erreichen, das bei einer 2,5 Slot Kühlung? Und 700 € nicht überschreiten? Was sagen eure Glaskugeln?

Rechne mal so mit März '25. Preislich wird es in etwas so bleiben wie aktuell +/- $50 denke ich mal. Die Preise werden aber in der Tat sehr spät an die AiB Vendor kolportiert / kommuniziert.

Die 4080 Super rutscht nun immer wieder mal unter die 1000er Marke. Wer also noch ein Jahr Geduld hat bekommt dann für ~75% des Preises gleiche Leistung oder für das gleiche Geld 30% mehr Leistung. Musst halt abwägen.

Ich bin auf die neuen Features gespannt. NVIDIA hatte vor Ewigkeiten schon mal was mit AI & Scheduling bzw. Arbiter geplappert, aber bisher kam da noch nix ins (hartverdrahtete) Frontend. Vielleicht ja nach Blackwell.:confused:

HOT
2024-05-04, 08:02:52
lt. Tom (MLID):

5090m -> 16GB
5080m -> 16GB
5070m -> 12GB (GB205)
5060m (Ti) -> 8GB (GB206)

ImmortalMonk
2024-05-04, 08:08:26
Rechne mal so mit März '25. Preislich wird es in etwas so bleiben wie aktuell +/- $50 denke ich mal. Die Preise werden aber in der Tat sehr spät an die AiB Vendor kolportiert / kommuniziert.

Die 4080 Super rutscht nun immer wieder mal unter die 1000er Marke. Wer also noch ein Jahr Geduld hat bekommt dann für ~75% des Preises gleiche Leistung oder für das gleiche Geld 30% mehr Leistung. Musst halt abwägen.

Ich bin auf die neuen Features gespannt. NVIDIA hatte vor Ewigkeiten schon mal was mit AI & Scheduling bzw. Arbiter geplappert, aber bisher kam da noch nix ins (hartverdrahtete) Frontend. Vielleicht ja nach Blackwell.:confused:


Ja, ich kaufe jetzt auch nichts mehr. Hatte ursprünglich mal mit dem Gedanken gespielt, meine 4070 durch eine 4080 Super zu ersetzen. Aber das lohnt einfach nicht, zumal es am PC aktuell keine Titel gibt, die das für mich persönlich erforderlich machen würden. Denke, im kommenden Herbst kann es mit Titeln wie Star Wars Outlaws dahingehend nochmals kritisch werden, aber da muss ich dann hart bleiben. Werde die 4070 dann "vermutlich" durch eine 5080 ersetzen sobald sie verfügbar ist.

The_Invisible
2024-05-04, 08:20:12
Highend am besten gleich am Anfang kaufen. Vor allem bei Nvidia tut sich da preislich über die Lebensspanne fast nix und man hat quasi 2 Jahre ein solides Produkt und Freude daran :D

Sardaukar.nsn
2024-05-04, 08:28:23
Highend am besten gleich am Anfang kaufen. Vor allem bei Nvidia tut sich da preislich über die Lebensspanne fast nix und man hat quasi 2 Jahre ein solides Produkt und Freude daran :D

Du sprichst mir aus der dunklen Seele...

https://media1.tenor.com/m/nZT5X9swNZ4AAAAd/jack-nicholson-yes.gif

Hübie
2024-05-04, 08:42:20
Highend am besten gleich am Anfang kaufen. Vor allem bei Nvidia tut sich da preislich über die Lebensspanne fast nix und man hat quasi 2 Jahre ein solides Produkt und Freude daran :D

Das stimmt. Wobei ich drei Jahre abschreibe und nicht zwei. Ich hätte Ende 2023 auch schon neu ordern können, aber mein System gefällt mir, wie es ist immer noch sehr gut. Also mache ich später den Sprung auf (wahrscheinlich) Zen 5 & Blackwell samt QLED. Der Sprung dürfte dann etwa 3x sein und wenn man dann Spielereien wie Bilderzeugung mit rechnet sind es wahrscheinlich so um die 5x.

w0mbat
2024-05-04, 09:37:37
Mei 3440x1440 QD-OLED kommt heute bei mir an, ich werde auch versuchen direkt zum Start eine 5090 zu ergattern. Die RX 6800 ist langsam doch etwas zu langsam für hohe Auflösung und FPS. Plus, RT wird langsam echt wichtig.

Altehardware
2024-05-04, 10:05:31
es wird langsam wieder zeit für ne neue gpu und das schon nach 3 Jahren im Normalfall also wie vor 10 Jahren ziemlich normal wäre da nicht der absurde preis und die extremen Strom bedarf der aktuellen sku
rtx4060 lachhaft wenig mehr Leistung weniger vram 8gb
rtx4060ti 16gb ok wäre da nicht diese Handbremse Bandbreite bei nur 288gb/s das bremst den chip total aus tbp 170w ok
rtx4070 beinahe ideal wäre da nicht die tbp 200w neben den absurden preis über 500€
rtx4070 super das gleiche hier passt mir nicht das 12gb etwas zu knapp sind
rtx4070ti super ideale gpu aber bei nenn absurden preis 850€
rtx4080 preislich undenkbar 1000€
rtx4090 naja viel zu hohe tbp (450w) und außerhalb meiner Anforderungen (1080p)

man siehe mein problem ich benötige ne neue sku kann aber derzeit keine kaufen weil es die sku nicht gibt was idealerweise ein ad104 mit12gb gddr6 18gbps 42sm und nur 180w tbp wäre.
das könnte nvidai jderzeit umsetzen als rtx406,ti super und den ad106 mit gddr6 20gbps und vollen 36sm als rtx4060 super 16gb
Diese wäre sogar mein favorite da diese dann 175w 17tf und 16gb hätte
Die Ursache warum da nvidia nicht tut liegt an den vertrag mit micron alle nvidia rtx40 karten haben micron chips und die sind eben auf gddr6x oder 18gbps beschränkt
Und ne rtx4060super mit samsung chips ist nicht umsetzbar. also muss da gddr6x drauf
das wird es nicht geben daher nehme ich an das man maximal die rtx4060ti super mit 42sm kommen wird oder man labelt eine sku mit gddr6 rtx4070 um statt gddr6x Speicher das reduziert den verbrauch auf 190w bei gleicher alu menge 46sm

KarlKastor
2024-05-04, 11:16:45
Erzähle uns mehr über den Vertrag zwischen Nvidia und Micron.

reaperrr
2024-05-04, 13:57:30
Wann wird denn schätzungsweise Blackwell veröffentlicht und kaufbar sein? Ich meine jetzt aber die 70er Reihe davon. Wird z.B. eine 5070 (TI) wohl die Leistung einer 4080 erreichen, das bei einer 2,5 Slot Kühlung? Und 700 € nicht überschreiten? Was sagen eure Glaskugeln?
Alles unter der 5090 soll Stand jetzt erst nächstes Jahr kommen, und im Fall der 5070 vermutlich auch nicht gleich Januar, sondern eher März/April 2025.

Zu deinen Fragen zur 5070, kann wahrscheinlich alles mit "ja" beantwortet werden (Preis aber nur bei 5070, nicht bei 5070Ti), aber mit der Einschränkung, dass die 5070 wohl erstmal bei 12GB bleibt, da auch GB205 nur ein 192bit SI hat und die erste Gen GDDR7 noch bei 16Gbit (2GB) je Chip bleibt, wodurch die Zukunftstauglichkeit in hohen Auflösungen mit RT wohl eher begrenzt ist.

Und ne 5070Ti mit 16GB auf GB203-Basis würde ähnlich wie die 4070Ti zum Launch wohl eher 900-1000€ kosten, und ne 5070-18GB würde ich frühestens als Refresh gegen Ende 2025 erwarten, zu nem Aufpreis von mindestens 100€ zur normalen 5070, also... joah, was Speichermengen angeht, wird's bei Nvidia meiner Meinung nach frühestens 2026 wieder einigermaßen fair, wenn sie Konkurrenz von RDNA5 bekommen.

lt. Tom (MLID):

5090m -> 16GB
5080m -> 16GB
5070m -> 12GB (GB205)
5060m (Ti) -> 8GB (GB206)
Spricht für GB203-Salvage in der 5080m.

Erhöht zumindest die Wahrscheinlichkeit etwas, dass GB203 prozentual etwas mehr Volumen als AD103 bekommt und die 5070Ti diesmal vielleicht nicht mit kleinerem Chip und 12GB kommt, sondern ebenfalls auf GB203-Salvage basiert.
Kann dafür aber sein, dass die 5070Ti erst später kommt, damit die Leute erstmal entweder 5080 (gleicher Chip zu höherem Preis) oder 5070 (billigerer Chip) kaufen.

Gouvernator
2024-05-04, 16:10:26
lt. Tom (MLID):

5090m -> 16GB
5080m -> 16GB
5070m -> 12GB (GB205)
5060m (Ti) -> 8GB (GB206)
Die 16Gb sind wohl echt eine Verarsche an Kunden. Diese GPUs könnten locker mit meiner 3090 mithalten, werden aber durch mickrigen VRAM in Qualitätseinstellungen mit DSR völlig ausgebremst werden.
Auch auf die Desktop-GPU bin ich deswegen nicht wirklich heiß. Seit 3090 gibt es damit keinerlei Qualitätssteigerung von 8K auf 12K, 16K... Für die Leistung muss schon 48Gb Desktop und 24Gb Mobile her.
Forza Horizon in 8K auf dem Laptop und 16K Desktop wären aus dem Stand möglich.

bbott
2024-05-04, 16:54:53
Die 16Gb sind wohl echt eine Verarsche an Kunden. Diese GPUs könnten locker mit meiner 3090 mithalten, werden aber durch mickrigen VRAM in Qualitätseinstellungen mit DSR völlig ausgebremst werden.
Auch auf die Desktop-GPU bin ich deswegen nicht wirklich heiß. Seit 3090 gibt es damit keinerlei Qualitätssteigerung von 8K auf 12K, 16K... Für die Leistung muss schon 48Gb Desktop und 24Gb Mobile her.
Forza Horizon in 8K auf dem Laptop und 16K Desktop wären aus dem Stand möglich.
Dafür gibt's doch dann FG 2.0 mit 3x mehr fps...

=Floi=
2024-05-04, 17:15:26
Da steht mobil!

Ich warte mal ab, wo NV dreht. Vorteile würde ich auch bei einer verbesserten api sehen.

Hübie
2024-05-05, 05:58:07
Vorteile würde ich auch bei einer verbesserten api sehen.

Weil? :uponder:

=Floi=
2024-05-05, 06:22:10
Weil die single thread cpu immer mehr limitiert. Die 40980er hat schon so ihre probleme und bei 40%-100% mehr leistung wird man selbst in 4k nur noch im limit sein.

davidzo
2024-05-05, 10:32:49
On dGPUs, more than 65% of the time is spent in page migrations: updating GPU tables and copying the data between host and device.

Scheint wohl ein Edgecase zu sein.
Mi300A skaliert eben besser je größer der workload ist, weil dann eben der aufwand für speicherkohärenz dominierend wird.

Overloading the MI300A APU with multiple processes further improved performance by 2x (test with 3-6 CPU cores per APU) which is much better than the lack of scalability on a dGPU+dCPU configuration.

Ich kann mir vorstellen dass traditionelle dGPUs im HPC Kontext in der Praxis einfach schwere scheduling Kopfschmerzen verursachen, während Mi300A deutlich weiter mit skaliert.

Hübie
2024-05-05, 15:43:51
Weil die single thread cpu immer mehr limitiert. Die 40980er hat schon so ihre probleme und bei 40%-100% mehr leistung wird man selbst in 4k nur noch im limit sein.

An was denkst du denn da im Speziellen? Afair ist jede halbwegs aktuelle Engine multithreaded...

nordic_pegasus
2024-05-06, 17:30:47
mal ein Gedanke zu Blackwell und Stromverbrauch. Wenn GB202 weiterhin in N4P gefertigt wird, deutlich mehr Shader bekommen wird und hoffentlich auch die Effizienz steigen wird, so wird dennoch absehbar der absolute Verbrauch steigen bei dem kolpotierten Monster-Chip.

Jetzt ist der 12VHPWR / 12V-2x6 mit 600 Watt maximal spezifiziert, zumindest die hochgezüchteten 4090er Karten stoßen bereits an diese Grenze. Selbst die 4090FE kann man per nvidia-smi Befehl auf 600W stellen. Was machen die Grafikkarten-Hersteller, wenn die OC-Modelle der 5090 die magische Grenze überschreiten? Ich kenne abseits von ein paar 1.600Watt PSUs keine Modelle mit 2 12VHPWR Kabeln. Sofern die PSU-Hersteller den 12VHPWR-Anschluss nativ an der Netzteil-Seite realisiert haben, könnten die "alten" PCIe-Anschlüsse für etwaige Adapter-Kabel knapp sein.

Mal abgesehen davon, sieht die ATX3.0/3.1 Spec überhaupt Karten mit mehr als 600 Watt vor? Wäre das grundsätzlich mit dem Prinzip der Sense-Pins am 12VHPWR-Kabel vereinbar, wenn man 2 Kabel parallel anschließt?

Sind die 600 Watt ein Hard-Limit oder nur eine Papierwand, die bald durchstoßen wird?

wolik
2024-05-06, 17:57:02
Mein gesamte PC Verbrauch (PC+65"8K) bei zocken (in 8K) liegt nicht immer über 600 Watt. Bitte keine "Panik" verbreiten.

[MK2]Mythos
2024-05-06, 18:05:12
Die Frage ist berechtigt. Der Stecker ist doch mit der 4090 schon sehr problematisch. Jede Karte die mehr verbraucht, wird das Problem auch vergrößern.

nordic_pegasus
2024-05-06, 18:52:55
Mein gesamte PC Verbrauch (PC+65"8K) bei zocken (in 8K) liegt nicht immer über 600 Watt. Bitte keine "Panik" verbreiten.

ich verbreite keine Panik. Es geht um die offiziellen Specs. Der Stecker ist für maximal 600 Watt spezifiziert. Die Sicherheitsfaktoren sind mit x1,1 lächerlich klein, wobei diese auch bei normierten Umgebungsbedingungen gelten.

Sardaukar.nsn
2024-05-06, 21:10:10
Das Powerlimit der 4090 ist auch ganz unglücklich gewählt. Sweetspot liegt irgendwo grob bei 350 Watt. Wenn der 5090 Sweetspot 100 Watt höher liegen würde, sillte das kein Problem sein.

horn 12
2024-05-07, 06:36:56
https://videocardz.com/newz/nvidia-geforce-rtx-5080-reportedly-launches-before-rtx-5090

Dann sollte wohl eine 5080 auf RTX 4090 in etwa aufschliessen und man will die Kunden ergattern für jene eine RTX 4090 zu teuer war.
Dafür aber weniger Speicher denke ich mir und max. etwas mehr Performance als eine 4090 für "womöglich 1399 Euro" für die 5080.

Könnte dies hinkommen ?

vinacis_vivids
2024-05-07, 09:55:18
Lächerliche Entwicklung bei Nvidia. Wenn man früher sich mal die GeForce2 Ultra angeschaut hat, gab's die GeForce2 GTS /Pro und die GeForce2 MX als abgespeckte Version.

Die spekulierte RTX5080 ist lediglich eine GeForce2 MX NV11, also quasi alles halbiert für 1399€. Einfach eine lächerliche Entwicklung von Huang.

So wird eine Gesellschaft immer mehr verarmen, wenn man diesem Typen glaubt. Ich denke, es werden sich wieder Leute anstellen und über Nacht zelten für ne Grafikkarte aka "GeForce2 MX" und sich das ganze Geld wieder aus der Tasche ziehen lassen.

Lächerliche Entwicklung.

Altehardware
2024-05-07, 10:15:51
ich habe ne neue Idee aufgrund des Gerücht von dual issue für die sm
Wenn nvidia wirklich wie amd ein dual issue anstrebt also per cache nen zweiten operation anfangen wäre maximal 25% von 2 Opüerationen drin wie amd derzeit mit 17%
Wieso macht das nvidia das ist die Vorbereitung auf mcm
Da zwischen den gpu tiles daten geteilt werden müssen hat man ne latenz was die gpu schlecht auslasten lässt folglich wird die nächste operatione begonnen um die zeit zu nutzen damit der sync dann min dann 2,125 operationen ermöglicht bei 2 chiplets
So der plan
Blackwel wird aber noch monlithisch und erstmal das dual issue ansetzen was folgende konfig beim gb207
chip 2 gpc je 16sm =32smn sku mit 28sm
28*88*2,5*2,25 (sf4x node samsung deutlich langsamer) = 13,8tf oder +21% rtx4060
besser ist der gb206 42sm 42*88*2,5*2,25 =20,7tf oder +24% rtx4060ti
das als rtx5060 12gb und rtx5060ti 16gb
Letztere wäre ideal
Offen ist nur wie sehr die neue ipc auf die tbp auswirken wird da mehr Operationen per clock auch mehr wärme erzeugt. (siehe Ursprung der sfu)
Da auch sf4x genutzt wird dürfte nvidia mit gr206 dann mcm auf samsung sf3 setzen dann etwa 2,65ghz
bsp ein grafiktile etwa 32sm 2 verbaut 64sm aktiv vermutlich 56sm dann
56*88*2,125*2,65 =55,4tf
Dieser Schritt wäre sehr gewagt statt die alu per sm zu erhöhen auf software zu setzen
Sagt aber auch das nvidia keine andere Wahl hat da mcm sicher ist ab n2 bzw sf3 node muss man in chiplets setzen.
Offen ist nur wie gut nvidia dual issue wird. 25% dürften aber machbar sein. Da nvidia alu dichte nicht so hoch ist wie bei amd.
Mehr als 2 tiles dürfte nvidia nicht anstreben bedeutet aber auch das es min 3 tile konfig gibt
32sm (eine rednerengine=2gpc ) 64sm (zwei renderengines =4gpc) 128sm (drei renderengines=6gpc) je mal 2 per gpu
Das aber ist erst rubin 2026 sf3 node 2,65ghz tsmc n2x node 3,75ghz
Demzufolge diese konfig bei blackwell
gb207 32sm 28 aktiv sf4x node 2,25ghz eine sku 60
gb206 64sm 42-60 Aktiv sf4x 2,25ghz 2 sku 60TI 70
gb205 96sm 72-82-90sm aktiv 3,0ghz 3 sku 70TI 80 80ti
gb203 144sm 128 aktiv 3,0ghz eine sku 90
gb202 192sm 160sk aktiv 2,5ghz (hpc only profi)

BlacKi
2024-05-07, 10:33:52
wenn die 5080 mit dem kleineren chip zuerst kommt, dann ist man ja beim alten schema wieder angekommen. die mit dem großen chip 1080ti kam auch erst ein jahr später. weil amd ja keine performance liefert, musste nv nichtmal die hard beschnittene 4090 als full chip bringen. jetzt spart man sich wohl den kompletten big chip am anfang und kann dann mit rdna5 kontern.

leute die alle 2 jahre sich den big chip gönnen werden nicht begeistert sein.

Troyan
2024-05-07, 14:15:53
Das Powerlimit der 4090 ist auch ganz unglücklich gewählt. Sweetspot liegt irgendwo grob bei 350 Watt. Wenn der 5090 Sweetspot 100 Watt höher liegen würde, sillte das kein Problem sein.

Es gibt kein Sweetspot bei Lovelace. Der Stromverbrauch in 4K kann bei 300W oder 450W liegen. Meine 600W OC Karte ohne Spannungserhebung kann auch 550W ziehen oder in einem typischen UE5 Spiel bei 330W rumnuckeln.

HOT
2024-05-07, 17:49:08
Irgendwie beschäftigt mich der Laptop-Launch etwas. Letztes Mal launchten 4080/90 am 8. Februar 23, 4050,60,70 am 22.Februar. Das muss dieses Mal ähnlich oder besser früher laufen, da die Laptops glaube ich diesmal generell früher dran sind (also in Time diesmal) und nicht zu spät, wie bei RPL-U/H(X) oder Rembrandt oder Pheonix oder MTL oder Hawk Point.
Ich gehe mal davon aus, dass NV die Chips schon zur CES alle benötigen wird, da sowoihl ARL-U als auch Kraken Point diesmal pünktlich am Start sind (APU-Launch Oktober, entwickelte Notebooks dann ebenfalls noch in 24). Für NV ändert sich also die Situation zu den letzten Malen. Bin gespannt ob das dann alles BW sind oder ob es eine mixed-Generation aus GB203 und Adas darunter gibt... dann wäre eine BW-Refresh-Generation Ende 25 garantiert.

TheAntitheist
2024-05-10, 02:40:24
Lächerliche Entwicklung bei Nvidia. Wenn man früher sich mal die GeForce2 Ultra angeschaut hat, gab's die GeForce2 GTS /Pro und die GeForce2 MX als abgespeckte Version.

Die spekulierte RTX5080 ist lediglich eine GeForce2 MX NV11, also quasi alles halbiert für 1399€. Einfach eine lächerliche Entwicklung von Huang.

So wird eine Gesellschaft immer mehr verarmen, wenn man diesem Typen glaubt. Ich denke, es werden sich wieder Leute anstellen und über Nacht zelten für ne Grafikkarte aka "GeForce2 MX" und sich das ganze Geld wieder aus der Tasche ziehen lassen.

Lächerliche Entwicklung.
wenn die Entwicklung lächerlich ist, dann lass uns mal lieber mit über AMD GPUs reden...

OgrEGT
2024-05-10, 06:48:13
https://videocardz.com/newz/nvidia-allegedly-testing-geforce-rtx-50-gpu-coolers-ranging-from-250w-to-600w
NVIDIA allegedly testing GeForce RTX 50 GPU coolers ranging from 250W to 600W

Leonidas
2024-05-10, 08:30:25
https://twitter.com/kopite7kimi/status/1787645742510993853
RTX 5080 should be released first.

https://twitter.com/XpeaGPU/status/1788442097978081334
To be exact, they should be announced at same time with availability separated by few weeks

Slipknot79
2024-05-11, 01:43:30
Und was soll die upwerfen? +20% auf die 4090? Gähn. (y)

OgrEGT
2024-05-11, 07:30:47
20% Mehrleistung einer 5080 zur 4090 könnten 40-50%* zu einer 4070Ti/4080S sein... das hört sich schon besser an... kommt halt auf P/L an...
-‐---
* https://www.computerbase.de/2024-04/fortnite-benchmark-test-2024/#abschnitt_benchmarks_in_ultra_hd

robbitop
2024-05-11, 08:50:51
Ich würde nicht zu viel erwarten. Es sind immer noch 4 nm und gb203 soll deutlich kleiner sein als AD102.

nordic_pegasus
2024-05-11, 09:34:43
w17I28lOL84

die 5080 soll wohl passend auf 4090D Niveau abzielen, damit weiterhin eine Karte nach China gehen darf und gleichzeitig günstiger in der Herstellung ist als die 4090D.

AffenJack
2024-05-11, 09:49:29
Ich würde nicht zu viel erwarten. Es sind immer noch 4 nm und gb203 soll deutlich kleiner sein als AD102.

Jepp, deshalb würde ich auch max. 30% mehr für dei 5080 vs 4080 bei Rasterizer erwarten. Einzig bei RT könnte es mehr werden durch Features.

BlacKi
2024-05-11, 10:28:21
Und was soll die upwerfen? +20% auf die 4090? Gähn. (y)nach MLID wirds eine zeit lang keine schnelleren karten geben als die 4090D. deswegen kommt die 5080 zuerst und wird hart an dem sanktionslimit darunter laufen.


natürlich nicht auf dauer.

basix
2024-05-11, 11:07:55
Das muss man immer mit dem TFLOPS-Limit betrachten. Spiele-Performance kann anders ausfallen, AD102 hat jetzt nicht sonderlich hohe Performance/TFLOPS

AffenJack
2024-05-11, 11:59:08
nach MLID wirds eine zeit lang keine schnelleren karten geben als die 4090D. deswegen kommt die 5080 zuerst und wird hart an dem sanktionslimit darunter laufen.


natürlich nicht auf dauer.

Kopite und Xpea sind deutlich glaubwürdiger als MLID. Dass man ihn überhaupt noch ernst nimmt.

Cubitus
2024-05-11, 12:38:17
Ist doch ganz einfach.. ;D

Die 5080 RTX bekommt eine Singel Blackwell GPU, (eventuell abgespeckt) und wenn Jensen gut drauf ist, mit 24 GB VRAM

Die 5090 wird das Monster werden, zwei kastrierte Blackwell GPUs mit dem Interconnect, dennoch wesentlich schneller als die 5080.
Natürlich im Fokus auf die Verwertung der Professional Chips, der Ausschuss muss ja weg, gleichzeitig wird das TDP-Limit nicht vollends gesprengt.

Alternative, kastrierte GPUs eben wieder im Chiplet Design.
5080, Zwei GPUs auf dem DIE
Alles drunter Singel GPU
5090: 4 GPUs auf dem DIE kreuzförmig.

Die 5090 wird dann als Streamer/Creator/und Semi Pro vermarktet.
Hast ja zwei GPUs kannst Streamen, Rendern und Zocken. --> Dann gibts dafür wieder nen Fancy Namen NV-Creator Mode, oder irgend ein anderes Treiber Feature wo du die Gpus trennen kannst.
VRAM, kommt drauf an, schön wären 48 Gigabyte VRAM.

Dann fassen wir mal die Nvidia Logik der Preisgestaltung zusammen.

Die 5080 RTX sollte sie an die 4090(D) kommen, welche ja um die ~1800 Euro kostet,
nicht die neusten Fancy Features besitzt, und somit die schlechtere Wahl wäre, wenn die 5080 ebenfalls 24 Gig Vram hat.. Joa dann bitte einmal 1400 Dollar MRSP, Ka-Ching..

Die 5090 ist dann in der Milchmädchen-Rechnung doppelt so schnell, (weil zwei oder mehr Chips ;D) und bietet doppelten Vram..
Aber Nvidia schreckt eventuell vor der 3K Marke zurück, weil hmm so teuer will man dann auch nicht erscheinen, also 2900 oder 2949 Dollar MRSP für die Founders. E voila

Eine Multichip Design zu undervolten wäre spannend ^^
Dann wirds auf den kleinsten gemeinsamen Nenner hinauslaufen.

Daredevil
2024-05-11, 13:34:06
Wenn wir annehmen, dass es 2 DIEs auf einem Package werden und alles perfekt funktioniert, könnte die potentielle 5090 ggf. auch mehr leisten und weniger Strom verbrauchen als eine 5080 bei gleichen Leistung.
Weil zwei GPUs mit niedrigerem Takt weniger saufen und zusammen halt mehr leisten. Dieses Spielchen habe ich mal mit zwei Vega64 in Battlefield getestet. 2x100w war FPS mäßig ca. 30% schneller als eine Vega64 bei 300w. Nur da war MGPU halt broken bis auf 1-2 Spiele in HighFPS.
Insofern könnte Nvidia auch ne 5080 bei 400w anbieten mit "gutem Chip" und ne 5090 bei 350w mit 2x "schlechtem Chip", aber deutlich mehr Leistung theoretisch. In a perfect World natürlich. :D

BlacKi
2024-05-11, 13:38:42
im consumer gibt kein multichip, save! man könnte eher darüber diskutieren, ob die 5090 überhaupt zeitnah kommt, oder ob man sie gleich ganz im consumer streicht. es gibt einfach 0 konkurenz.

horn 12
2024-05-11, 13:57:22
Eine 5080 ist wohl eher eine RTX 4080TI welche Nvidia nicht gebracht hat um somit eine 5080 zu Releasen.
Sonst stünde diese Karte in Konkurrenz zur Letzten Generation
Multi Chiplet kann NV streichen,- di ist AMD ihnen schonmal voraus.
Auf sowas Großes muss man vorab die Hausaufgaben machen!

Altehardware
2024-05-11, 14:21:50
kurz nei für mcm ist es noch zu früh blackwell bereitet mcm vor.
rubin vermutlich erst 2027 bzw dessen Nachfolger wird mcm in sf3x node
da nvidia vermutlich die sm Struktur nicht ändert

Folglich wird man den software Weg gehen und mcm umsetzen.
zuerst software mit mehr ipc und dann mcm in sf3x node
bin aber gespannt wie nvidia das latenzproblem zwischen den gpu tile lösen will.
und wie groß werden die tiles ich vermute 2 tpc =96sm in sf3x node etwa 108mm² ohne analog Anteil.
Und dann als rtx70 mit 2 tiles bis 4 tiles die sku ergeben. 192-384sm bei 2,65ghz

TheAntitheist
2024-05-11, 14:25:05
Die 5080 RTX bekommt eine Singel Blackwell GPU, (eventuell abgespeckt) und wenn Jensen gut drauf ist, mit 24 GB VRAM

Erklär mir mal bitte wie man 24GB VRAM an ein 256bit Speicherinterface anbindet, ohne 1.5 oder 3GB RAM Module (nicht verfügbar in diesem Jahr)

also wirklich, erklär mir das bitte

Cubitus
2024-05-11, 14:26:16
im consumer gibt kein multichip, save! man könnte eher darüber diskutieren, ob die 5090 überhaupt zeitnah kommt, oder ob man sie gleich ganz im consumer streicht. es gibt einfach 0 konkurenz.

Das weißt du woher?
Ich sehe es als durchaus realistisch, gerade damit sich die 5090 abheben wird.

Das hat mit Konkurrenz gar nichts zu tun, weil die Preisrange sowieso den AMD Käufer nicht tangieren wird. Eine Multichip 5090 könnte aber durchaus ein Bedarf der Creators, Enthusiasten und Semi-Pro Anwender abdecken.

Billig wird Sie nicht, Nvidia kann mit so einer Karte gutes Geld verlangen und diese wird trotzdem Käufer finden. Wie gesagt wenn es so kommt gehe ich in Euro von 3K aus, wenn es die AIBs fertigen dann sind Preise für die super OC Modelle zwischen 3500-4000 Euro drin. Die "günstigen" Partner wie PNY, KFA
und Co werden dann knapp unter 3K liegen.

Daredevil
2024-05-11, 14:37:53
im consumer gibt kein multichip, save! man könnte eher darüber diskutieren, ob die 5090 überhaupt zeitnah kommt, oder ob man sie gleich ganz im consumer streicht. es gibt einfach 0 konkurenz.
MCM bzw. diese Technologie, die Nvidia einsetzt sieht stark so aus wie die vom M1 Ultra, der im März 2022 vorgestellt worden ist.
Also insofern gibt es schon MCM im Consumer, die Frage ist nur, welchen Preis man dafür aufruft und was der Kunde bereit ist, zu zahlen.
M2 Max + M2 Max = M2 Ultra
https://s20.directupload.net/images/240511/ttvgryzk.png

Die Blackwell Kiste hat 208Mrd Transistoren, der M2 Max kommt auf 134 Milliarden. Das Package ist größer als Intels Flagschiff. :D

https://cdn.wccftech.com/wp-content/uploads/2023/06/Apple-M2-Ultra-SoC-delidded-Intel-Xeon-Sapphire-Rapids-CPU-_1-scaled.jpeg

Selbst wenn es eine 2999€ Titan wird, werden sich dort auch Käufer finden, auch wenn es nur ein AI prestige Objekt wird. Consumer GPUs sind ja mittlerweile schnell genug für AI Workloads im Desktop, was es einem hier nur mangelt ist wirklich massig viel Speicher. Aber hey, alles nur ne Wunschvorstellung. :love4:

BlacKi
2024-05-11, 14:43:11
Erklär mir mal bitte wie man 24GB VRAM an ein 256bit Speicherinterface anbindet, ohne 1.5 oder 3GB RAM Module (nicht verfügbar in diesem Jahr)

also wirklich, erklär mir das bittedurch gddr7 3gb module. der hersteller micron plant jene wohl wirklich ins portfolio aufzunehmen, wenn das aber nv von der verfügbarkeit zuviel risiko ist, dann wird man sich dagegenentscheiden.

Das weißt du woher?
Ich sehe es als durchaus realistisch, gerade damit sich die 5090 abheben wird.

Das hat mit Konkurrenz gar nichts zu tun, weil die Preisrange sowieso den AMD Käufer nicht tangieren wird. Eine Multichip 5090 könnte aber durchaus ein Bedarf der Creators, Enthusiasten und Semi-Pro Anwender abdecken.

Billig wird Sie nicht, Nvidia kann mit so einer Karte gutes Geld verlangen und diese wird trotzdem Käufer finden. Wie gesagt wenn es so kommt gehe ich in Euro von 3K aus, wenn es die AIBs fertigen dann sind Preise für die super OC Modelle zwischen 3500-4000 Euro drin. Die "günstigen" Partner wie PNY, KFA
und Co werden dann knapp unter 3K liegen.

nur nachträglich, wenn man wie bei der titan v zuviel ausschuß hat. aber auch jene war wohl nie für den consumer geplant. in dem fall würde ich aber dazu tendieren, das man sogar soweit geht und die titan b als karte soweit kastriert, das sogar nur 1 chip aktiv ist.

ich denke, nv will das die prosumer lieber pro kaufen.

Hübie
2024-05-12, 10:36:01
Das weißt du woher?
Ich sehe es als durchaus realistisch, gerade damit sich die 5090 abheben wird.

Das hat mit Konkurrenz gar nichts zu tun, weil die Preisrange sowieso den AMD Käufer nicht tangieren wird. Eine Multichip 5090 könnte aber durchaus ein Bedarf der Creators, Enthusiasten und Semi-Pro Anwender abdecken.

Billig wird Sie nicht, Nvidia kann mit so einer Karte gutes Geld verlangen und diese wird trotzdem Käufer finden. Wie gesagt wenn es so kommt gehe ich in Euro von 3K aus, wenn es die AIBs fertigen dann sind Preise für die super OC Modelle zwischen 3500-4000 Euro drin. Die "günstigen" Partner wie PNY, KFA
und Co werden dann knapp unter 3K liegen.

Nvidia hat sich noch nie an AMD orientiert, was Produktpalette angeht. Preislich schon eher. Wenn eine 5090 geplant war, wird sie kommen. Ob AMD nun Kopfstand macht oder nicht spielt keine Rolle. Multichip könnte man als Wiederauferstehung des Titanen nutzen, aber das möchte wohl niemand. :D

Gouvernator
2024-05-12, 10:56:10
Spannendste GPU wird eh das sein welche statt 16Gb , 24Gb bekommt. Alle VRAM Größen drüber werden von NV aus dem Stand heraus vergoldet und unbezahlbar. Wenn es hart auf hart kommt, dann wird NV den Preis über die Vram Größe über ein Kamm bestimmen. Eine 5080 mit 24Gb könnte grundsätzlich eine 2000€ Karte sein. Die 5090 mit 24Gb 2500-3000€. Und 5090 mit 32-48Gb dann mit völlig offenem Preis, bestimmt durch Schmuggler nach China.

PS. Wer eine "billige" 5080 mit 16Gb kaufen will, fällt auf den selben Scam ein wie damals als NV beschnittene 1,5-3,5Gb verkaufen konnte. Leistung vs VRAM stimmt bei 5080 16Gb in etwa auf gleiche Weise.

The_Invisible
2024-05-12, 11:01:31
Hier wird schon wieder übertrieben mit den Preisen genauso wie nach den >2k GPUs titan rtx und 3090ti...

@Hübie
Naja die 90er Serie ist eigentlich Titan, kann man auch ECC aktivieren. Obwohl man natürlich differenzieren kann, eine richtige Titan mit dual-gpu wär schon geil, um wird man aber sicher für Prof. Karten sparen...

Platos
2024-05-12, 11:08:12
Mit dual-GPU wie eine "wirkliche" Titan wäre es aber wie eine SLI Karte und somit alles andere als Geil fürs Gaming. Dann wäre es wieder eine Microstutter-Maschine.

Hingegen eine Multichip-GPU, die als eine einzige GPU fungiert, das wäre technologisch geil. Aber preislich sicherlich vergoldet.

The_Invisible
2024-05-12, 11:10:24
Mit dual-GPU wie eine "wirkliche" Titan wäre es aber wie eine SLI Karte und somit alles andere als Geil fürs Gaming. Dann wäre es wieder eine Microstutter-Maschine.

Hingegen eine Multichip-GPU, die als eine einzige GPU fungiert, das wäre technologisch geil. Aber preislich sicherlich vergoldet.

Ja das meinte ich, SLI will heute wohl keiner mehr...

Sardaukar.nsn
2024-05-14, 07:26:34
Die wohl wichtigste Änderung für Blackwell... Abschreibung (https://www.haustec.de/management/it/so-schreiben-sie-hardware-und-software-richtig-ab#:~:text=Steuertipps%20f%C3%BCr%20Handwerksbetriebe-,Hard%2D%20und%20Software%20komplett%20in%202023%20abschreiben,mehr%20unter%2080 0%20Euro%20liegen) :freak:

Hübie
2024-05-14, 19:03:42
Das muss dann aber ein Fertig-PC oder ein komplett selbst zusammen gestellter PC sein.

Sardaukar.nsn
2024-05-14, 19:11:11
Bisher habe ich die eingereichten Einzelteile immer bewilligt bekommen. Abschreibung halt uber drei Jahre. So ist es mir deutlich lieber. Je nachdem wie 4090 wieder verkauft wird, könnte das unterm Strich eine sehr günstige GPU gewesen sein.

monstar-x
2024-05-15, 13:03:51
Das muss dann aber ein Fertig-PC oder ein komplett selbst zusammen gestellter PC sein.

Muss eigenständig nutzbar sein, eine Grafikkarte ist alleine nicht nutzbar, ein Fertig-PC hingegen schon.


Bisher habe ich die eingereichten Einzelteile immer bewilligt bekommen. Abschreibung halt uber drei Jahre. So ist es mir deutlich lieber. Je nachdem wie 4090 wieder verkauft wird, könnte das unterm Strich eine sehr günstige GPU gewesen sein.

Dann hattest du bisher Glück, bei einer richtigen Prüfen, würden die Steuerprüfer das bemängeln. Grafikkarte muss laut AFA Tabelle über Jahre abgeschrieben werden und ist nicht Sofort Abschreibungsfähig.

TheAntitheist
2024-05-16, 06:02:36
Muss eigenständig nutzbar sein, eine Grafikkarte ist alleine nicht nutzbar, ein Fertig-PC hingegen schon.




Dann hattest du bisher Glück, bei einer richtigen Prüfen, würden die Steuerprüfer das bemängeln. Grafikkarte muss laut AFA Tabelle über Jahre abgeschrieben werden und ist nicht Sofort Abschreibungsfähig.
er hat doch gesagt über drei Jahre, drei Jahre sind nicht sofort.

Dazu kommt noch das was du schreibst nicht stimmt, denn man kann es seit ein paar Jahren komplett abschreiben.

Mit Schreiben vom 26.2.2021 ermöglicht das Bundesfinanzministerium (BMF, Schreiben v. 26.2.2021, IV C 3 - S 2190/21/10002 :013) die Nutzungsdauer von Computern, Tablett-PCs, Notebooks und Netbooks einschließlich aller Zubehörteile sowie der Peripheriegeräte, z.B. Drucker und Scanner, mit 1 Jahr anzusetzen.

monstar-x
2024-05-17, 00:34:03
er hat doch gesagt über drei Jahre, drei Jahre sind nicht sofort.

Stimmt :cool:



Dazu kommt noch das was du schreibst nicht stimmt, denn man kann es seit ein paar Jahren komplett abschreiben.

Mit Schreiben vom 26.2.2021 ermöglicht das Bundesfinanzministerium (BMF, Schreiben v. 26.2.2021, IV C 3 - S 2190/21/10002 :013) die Nutzungsdauer von Computern, Tablett-PCs, Notebooks und Netbooks einschließlich aller Zubehörteile sowie der Peripheriegeräte, z.B. Drucker und Scanner, mit 1 Jahr anzusetzen.

Du kannst viele Dinge im Anschaffungsjahr abschreiben aber keine interne Geräte wie Grafikkarte, CPU, SSD, Mainboard, Netzteil etc.
Wie du schon sagst bezieht sich dass auf externe Peripheriegeräte oder eigenständig nutzbare Geräte wie Notebook, Computer.

Alles schön hier aufgelistete
https://www.haufe.de/steuern/finanzverwaltung/geaenderte-nutzungsdauer-von-computerhardware-und-software_164_537792.html


Aber lass uns nicht zu sehr Offtopic werden, die Frage ist beantwortet.