PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 12. Februar 2025


Leonidas
2025-02-13, 09:14:06
Link zur News:
https://www.3dcenter.org/news/news-des-12-februar-2025-0

Gast Ritis
2025-02-13, 10:25:56
Stellt sich doch die Frage wie kommt überhaupt jemand auf die Idee noch einen Passmark laufen zu lassen?

Das ist doch wohl eher keine statistisch valide globale Verteilung eines Userpanels. Wenn da plötzlich von Mumbai bis Hyderabad vermehrt Haushalte mit bezahlbaren Windows-PC arbeiten und es wegen Werbung der Passmark gerade Trend ist, dann könnte das eine Erklärung (Theorie) sein.

Mega-Zord
2025-02-13, 11:52:19
Mal sehen, was die 32GB bei einer Karte in der Leistungsklasse überhaupt bringen. Die 32GB würden imo auf eine 9090 XTX mit 84 CUs gehören.

Gastlich
2025-02-13, 12:11:17
Mal sehen, was die 32GB bei einer Karte in der Leistungsklasse überhaupt bringen. Die 32GB würden imo auf eine 9090 XTX mit 84 CUs gehören.

Es gibt keinen direkten Zusammenhang von VRAM-Grösse und Leistungsfähigkeit einer GPU.

Wenn die GPU fürs Spielen genutzt werden soll sind für 4k-Auflösung mit viel Texturen und komplexen Meshes mehr als 16GB in einigen Spielen bereits sinnvoll. Zahlreiche Shaderstufen mit separaten Targets ehrhöhen den Bedarf zusätzlich. Wenn dann die FPS-Leistung mit schwacher oder potenter GPU von 30, 60 oder 120 und mehr angestrebt wird ist die VRAM-Grösse sekundär, dafür braucht es vor allem Bandbreite die nur indirekt mit der Grösse zusammenhängt.

Werden lokal LLM genutzt ist die Qualität der Ausgabe extrem von der komplexität bzw. Grösse des Modells abhängig. Je reduzierter das Modell desto ungenauer das Ergebnis. Ob nun auf ein ungenaues Ergebnis 4 oder 8 Sekunden gewartet werden musste ist dabei relativ irrelevant. Wichtig ist da nur dass das qualitative Modell überhaupt erstmal in den VRAM geladen werden konnte, Auslagerungen in den System-RAM werden heute mit Konsumer-Clients nicht unterstützt.

Sweepi
2025-02-13, 12:14:34
Mal sehen, was die 32GB bei einer Karte in der Leistungsklasse überhaupt bringen.

AI-Modelle.
Wird auch Zeit, das AMD diesen Markt bedient. Fuer diverse Anwendungsfälle zählt (solange die Bandbreite ok ist) [fast] nur (V)RAM pro Euro.

nonharderware
2025-02-13, 14:25:10
Weil ich ja schon länger bzgl. einer "großen" RDNA4 Karte "fantasiere":

Ist die 32GB Version WIRKLICH "nur" eine eine Radeon RX 9070 XT mit mehr Speicher?
Es wäre ja die perfekte Ausgangslage am Markt aktuell für AMD hier entweder einen besseren Chip (Vorlaufzeit passt oder gerade deshalb unglaubwürdig?) zu verbauen oder volle (kein teildeaktivierten) Chips zu nehmen und/oder besonders taktfreudige Modelle zu nehmen.

Ich finde die Idee jedenfalls sexy und das 5090 FE Budget wartet auch noch (in Gold geparkt) ... wobei hier aber für mich aber schon ordentlich Abstand (auch unter RT) zur 4080S vorhanden sein muss...

Leonidas
2025-02-13, 15:45:40
Ist die 32GB Version WIRKLICH "nur" eine eine Radeon RX 9070 XT mit mehr Speicher?

So wurde sie beschrieben. Dass es eine Pro-Karte sein könnte, wurde direkt verneint. Mehr Möglichkeiten bei Chip & Speicherart hat AMD derzeit sowieso nicht, ergo einfach nur mehr Speicher an einer 9070XT dran.

Gast
2025-02-13, 17:36:44
Ein Dual-GPU mit 64GB wie bei RDNA2 wäre auch nicht schlecht. War damals die schnellste GPU, die es zu kaufen gab.
https://static.tweaktown.com/news/8/1/81679_01_amd-radeon-pro-w6800x-duo-dual-rdna-2-gpu-beats-nvidias-best-gpus.jpg

Gast
2025-02-13, 17:43:54
Wichtig ist da nur dass das qualitative Modell überhaupt erstmal in den VRAM geladen werden konnte, Auslagerungen in den System-RAM werden heute mit Konsumer-Clients nicht unterstützt.

Zählt LM Studio nicht als Konsumer-Client? :confused:
Da ist das einfach nur ein Regler im Menü, der nach rechts geschoben wird.

nonharderware
2025-02-13, 17:51:59
So wurde sie beschrieben. Dass es eine Pro-Karte sein könnte, wurde direkt verneint. Mehr Möglichkeiten bei Chip & Speicherart hat AMD derzeit sowieso nicht, ergo einfach nur mehr Speicher an einer 9070XT dran.

Schade, aber ich will dennoch hoffen, dass N4C eventuell noch kommt ...

Platos
2025-02-13, 17:59:14
DIe 32GB sind ja schön und gut für den Entry-Bereich, aber dank Tensorcores ist man gerade im Hobby-AI-Bereich oftmals nur mit nvidia bedient (wird hald von den ganzen Leuten oft nur nvidia unterstützt bzw. dank Tensorcores ist man dann oft AMD ums 5-Fache überlegen bei ansonsten gleicher Rechenleistung).

Und die Leute, die die ganzen Dinge so schreiben im Hobby-Bereich (z.B AI-Upscaling/Frameinterpolation etc) haben keine RTX 3060 sondern eine RTX 4090. AMD Karten sind da kaum vertreten. D.h mit einer schwachbrüstigen AMD Karte, die zwar 32GB hat, sonst aber schwächelt, ändert man nichts am Grundproblem (keine/schlechte) AMD Unterstützung. Damit Leute da wirklich drauf eingehen, müsste man an der Spitze einen grundlegenden Vorteil haben. z.B 64GB VRAM und mindestens eine Perfomance zwischen RTX 4090 und RTX 5090.

Aber so wirds hald mal wieder nix als ein Sonderfall.

madzapp
2025-02-13, 18:14:55
AMD kann auch nicht von heute auf morgen einen riesen Markt bedienen. Das muss wenn dann erst mal wachsen. Wenn das ganze Silicium in AI geht, wäre das nicht gut für die Gamer. Ebenso für den Preis der 32GB Version, für die sich auch manche Gamer interessieren.

Aroas
2025-02-13, 18:52:09
Statt eine 9070XT mit 32GB aufzublasen, wäre es schön, wenn AMD bei Mainstream Karten grundsätzlich mind. 12GB Speicher verbauen würde.
8GB sind nur noch was fürs Low End.

The_Invisible
2025-02-13, 18:55:40
Als rdna4 käufer würde ich mir die 32gb überlegen, scheint nötiger als bei Nvidia Mal wieder: https://www.computerbase.de/artikel/gaming/spider-man-2-benchmark-test.91345/seite-2#abschnitt_erst_ab_20_gb_vram_wirklich_problemlos

Platos
2025-02-13, 19:05:43
DIe 32GB sind ja schön und gut für den Entry-Bereich, aber dank Tensorcores ist man gerade im Hobby-AI-Bereich oftmals nur mit nvidia bedient (wird hald von den ganzen Leuten oft nur nvidia unterstützt bzw. dank Tensorcores ist man dann oft AMD ums 5-Fache überlegen bei ansonsten gleicher Rechenleistung).

Und die Leute, die die ganzen Dinge so schreiben im Hobby-Bereich (z.B AI-Upscaling/Frameinterpolation etc) haben keine RTX 3060 sondern eine RTX 4090. AMD Karten sind da kaum vertreten. D.h mit einer schwachbrüstigen AMD Karte, die zwar 32GB hat, sonst aber schwächelt, ändert man nichts am Grundproblem (keine/schlechte) AMD Unterstützung. Damit Leute da wirklich drauf eingehen, müsste man an der Spitze einen grundlegenden Vorteil haben. z.B 64GB VRAM und mindestens RTX 4090+ Perfomance.

Aber so wirds hald mal wieder nix als ein Sonderfall.

Mega-Zord
2025-02-13, 21:39:23
DIe 32GB sind ja schön und gut für den Entry-Bereich, aber dank Tensorcores ist man gerade im Hobby-AI-Bereich oftmals nur mit nvidia bedient (wird hald von den ganzen Leuten oft nur nvidia unterstützt bzw. dank Tensorcores ist man dann oft AMD ums 5-Fache überlegen bei ansonsten gleicher Rechenleistung).

Und die Leute, die die ganzen Dinge so schreiben im Hobby-Bereich (z.B AI-Upscaling/Frameinterpolation etc) haben keine RTX 3060 sondern eine RTX 4090. AMD Karten sind da kaum vertreten. D.h mit einer schwachbrüstigen AMD Karte, die zwar 32GB hat, sonst aber schwächelt, ändert man nichts am Grundproblem (keine/schlechte) AMD Unterstützung. Damit Leute da wirklich drauf eingehen, müsste man an der Spitze einen grundlegenden Vorteil haben. z.B 64GB VRAM und mindestens RTX 4090+ Perfomance.

Aber so wirds hald mal wieder nix als ein Sonderfall.

https://media2.giphy.com/media/v1.Y2lkPTc5MGI3NjExamJ3emp2cmd6dTJqMWttdnAxczgwZjdzbmU0Nm1rdGJpN2RrbWg5dSZlcD12M V9pbnRlcm5hbF9naWZfYnlfaWQmY3Q9Zw/2noBQPQOBmt6U/giphy.gif

bad_sign
2025-02-13, 22:51:51
@leonidas
bereits debunked
https://videocardz.com/pixel/amd-denies-rumors-of-radeon-rx-9070-xt-with-32gb-memory

nonharderware
2025-02-13, 22:59:21
@leonidas
bereits debunked
https://videocardz.com/pixel/amd-denies-rumors-of-radeon-rx-9070-xt-with-32gb-memory


Da steht nur, dass es keine 9070 mit 32GB geben wird - lässt mich aber nun stärker auf eine 90X0 > 9070 hoffen :D

Leonidas
2025-02-14, 04:24:36
@leonidas
bereits debunked
https://videocardz.com/pixel/amd-denies-rumors-of-radeon-rx-9070-xt-with-32gb-memory

Schade. Danke für den Hinweis.

Sweepi
2025-02-14, 09:55:22
. D.h mit einer schwachbrüstigen AMD Karte, die zwar 32GB hat, sonst aber schwächelt, ändert man nichts am Grundproblem (keine/schlechte) AMD Unterstützung. Damit Leute da wirklich drauf eingehen, müsste man an der Spitze einen grundlegenden Vorteil haben.

Vieles was du sagst, stimmt, und trotzdem ist mein Fazit anders :D :

- eine 64 GB AMD Karte mit NVIDIA-Niveau Tensor und gleichzeitig super Support für pyTorch usw. wäre natürlich das non-Plus Ultra. Würde AMD für 1500, wahrscheinlich auch für 2500 und mehr aus den Händen gerissen werden.
- Aaaaber: z.B. für DeepsSeek Inference braucht man kein Nvidia, das geht auch mit aktuellen AMD Karten ok. Hier eine 32 GB Karte für 800-1200? Verkaufsschlager in dem Segment. Eine 4090 24 GB geht hier gerade für 1800+, in den USA noch für wesentlich mehr weg. Die hat zwar wesentlich mehr Bandbreite und Tensor performance, aber wie sagt: Ist nicht für jeden wichtig. Es gibt Leute, die wollen möglichst günstig 192 GB VRAM haben, um möglichst grosse Modelle laufen zu lassen. Und wenn 6x5090 oder 8x4090 zu teuer sind, greifen die zu 8x3090, und die ist deutlich langsamer (erreicht gerade ~45% Performance (-57%/+132%) der 4090 in allen Tensor-Bereichen INT4/INT8/FP16/BF16/TF32 + die 3090 kann kein FP8 ), reicht aber trotzdem.



Fazit:
Damit Leute da wirklich drauf eingehen, müsste man an der Spitze einen grundlegenden Vorteil haben.


Ich behaupte: bestes VRAM/Euro Verhältnis (bie gleichzeitig ausreichend VRAM pro Slot) waere ein ausreichender grundlegender Vorteil.

Gast
2025-02-14, 20:01:12
- eine 64 GB AMD Karte mit NVIDIA-Niveau Tensor und gleichzeitig super Support für pyTorch usw. wäre natürlich das non-Plus Ultra. Würde AMD für 1500, wahrscheinlich auch für 2500 und mehr aus den Händen gerissen werden.

Eine W6800X mit 64GB gibt es ab 1800€.

greeny
2025-02-14, 21:32:42
Agentic AI: Wie künstliche Intelligenz die Arbeitswelt 2025 verändert [Telepolis] d
Da schwebt ein einsames kleines "d" rum... ;(

Leonidas
2025-02-15, 02:53:59
Da hat sich ein Teil des Speicherbefehls ALT+D+S in textlicher Form verirrt, anstatt tatsächlich zu speichern. Danke für den Hinweis, ist gefixt.