Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Launch-Analyse Intel Arc B580


Leonidas
2024-12-15, 19:39:12
Link zum Artikel:
https://www.3dcenter.org/artikel/launch-analyse-intel-arc-b580

Link zur entsprechenden Ersteindrucks-Umfrage:
https://www.3dcenter.org/umfrage/umfrage-wie-ist-der-ersteindruck-zu-intels-arc-b580

Link zur Umfrage-Auswertung:
https://www.3dcenter.org/news/umfrage-auswertung-wie-ist-der-ersteindruck-zu-intels-arc-b580

GerryB
2024-12-15, 19:59:56
Der maxTakt bei TPU ist etwas niedrig, ... evtl. ein schlechtes Exemplar erwischt, ... weil
auch das OCen nicht so easy wie bei den anderen Reviewern ging!?

Leonidas
2024-12-15, 20:05:36
Ich denke eher, die haben genauer gemessen und damit auch die ganzen kurzfristig niedrigen Werte mitbekommen. Der Median ist bei denen auch wieder durchgehend auf 2850 - nur eben der Average auf 2801. Bedeutet, es gab einzelne klare Ausreißer nach unten.

Frage zum OC: Hat jemand denn auch mehr Performance (außer in Synthies) gemessen?

Raff
2024-12-15, 20:52:58
Frage zum OC: Hat jemand denn auch mehr Performance (außer in Synthies) gemessen?

Plus ~15 Prozent bei ~18 Prozent mehr Kerntakt und 21,6 GT/s auf dem Speicher (in Cyberpunk 2077). Das ist aber noch nicht public. Basis ist das hier:

uNI6jXPBWao

MfG
Raff

Platos
2024-12-15, 21:06:45
Die Karte ist ok im jetzigen Markt. Aber die beiden Konkurrenten müssen schon sehr wenig liefern (was ja angeblich so sein soll), damit sie nicht besser sind, sonst wechselt diese Karte innert kurzer Zeit von "ok" zu "obsolet".

Leider ist die Effizienz dieser Karte so miserabel. Sie ist nicht mal auf dem Niveau vom ziemlich ineffizienten RDNA3. Das alleine würde die Karte für mich persönlich ausschliessen.

Gibts eig. irgend ein DX9 und DX11 test?

Raff
2024-12-15, 21:11:39
Die Effizienz (Fps/Watt) unter Last ist besser als bei RDNA 3, sowohl beim Rasterizing als auch Raytracing. Oder meinst du eine isolierte Metrik wie Fps/mm²? Wenn Nvidia tatsächlich nur eine RTX 5060 8GB veröffentlicht, kann man dieses Modell direkt abhaken. AMD wird diesen Fehler aber eher nicht begehen.

MfG
Raff

Gast
2024-12-15, 22:05:26
12 GB sind in der Leistungsklasse doch mehr Marketing. Die rohe Performance der Karte ist m.E. zu schwach, um wirklich von der Speichermenge profitieren zu können. Der Stromverbrauch ist hoch. Die Mehrkosten müssten man eigentlich auch addieren und dann relativiert sich auch der Listenpreis.

Exxtreme
2024-12-15, 22:40:38
12 GB sind in der Leistungsklasse doch mehr Marketing. Die rohe Performance der Karte ist m.E. zu schwach, um wirklich von der Speichermenge profitieren zu können. Der Stromverbrauch ist hoch. Die Mehrkosten müssten man eigentlich auch addieren und dann relativiert sich auch der Listenpreis.
Nein, so funktioniert VRAM nicht. Und zweitens, VRAM hat Vorteile wenn man Framegeneration nutzt. Leider gibt es da nicht so viele Tests, die das beim Battlemage beleuchten.

Raff
2024-12-15, 23:04:52
Die Karte wäre mit 8 GiByte längst nicht dort, wo sie gerade zu finden ist, dafür ist Intels Speicherverwaltung zu schwach. Apropos, Leo, ich denke, dass sich eine eigene Abhandlung des VRAM-Einflusses sehr lohnen würde. "Finger weg von 8 GiByte" mal aus einer anderen Feder. :) Evidenz liefert unter anderem der PCGH-Vergleich zwischen RX 7600 und RX 7600 XT. Falls weiteres Material gewünscht ist, kann ich das gerne anliefern.

MfG
Raff

Gast
2024-12-16, 00:32:30
Bis vor der Intel Karte waren 8 GB der Sweetspot bzgl. FPS, Bildqualität, Stromverbrauch und eben Preis. Das wird m.E. oft vergessen. Klar kriegt man die 8 GB Karten Ihre Grenzen. Die Frage ist, ob die Bildqualität aber dramatisch leidet bei schlechteren Texturen bzw. weniger Details. Hinzu kommt, dass die Probleme meist nur bei AAA-Spielen auftreten. Also nicht verallgemeinerbar sind.

Das ist das Problem, wenn man blind max Settings testet ohne zu verstehen, was das eigentlich für das Spielerlebnis ausmacht.

Gast
2024-12-16, 00:36:21
Die Karte wäre mit 8 GiByte längst nicht dort, wo sie gerade zu finden ist, dafür ist Intels Speicherverwaltung zu schwach.
Raff

Mag sein. Ändert aber im Vergleich zur Konkurrenz auch nichts an meiner Aussage, dass sie für höhere Auflösungen einfach zu wenig FPS liefert. Da könnte sie auch 24GB VRAM haben und es würde keine Rolle spielen.

Platos
2024-12-16, 00:55:01
Die Effizienz (Fps/Watt) unter Last ist besser als bei RDNA 3, sowohl beim Rasterizing als auch Raytracing. Oder meinst du eine isolierte Metrik wie Fps/mm²? Wenn Nvidia tatsächlich nur eine RTX 5060 8GB veröffentlicht, kann man dieses Modell direkt abhaken. AMD wird diesen Fehler aber eher nicht begehen.

MfG
Raff

Ah, falsch geguckt in der Tabelle, stimmt. Danke für den Hinweis.

Aber mir ist es persönlich trotzdem immer noch zu niedrig (immer noch schlechter wie Lovelace). Aber es mag natürlich andere geben, die das nicht so sehr interessiert. Aber wie ich gerade sehe, ist der idle-Verbrauch immer noch aus der Hölle. Also dass sie da in 2 Jahren (fast) nix hingekriegt haben... Wenigstens so 25Watt oder so...

Interessant wäre jetzt noch der Verbrauch bei nem 4k60FPS Video bei Youtube oder im Mediaplayer.

Bin ja mal gespannt, ob nvidia wirklich im ernst nochmals 8GB bei einer 5060 bringt. Es war ja schon absurd, als die 4060 nur 8GB hatte, die 3060 aber 12GB.

Leonidas
2024-12-16, 04:30:31
Bis vor der Intel Karte waren 8 GB der Sweetspot bzgl. FPS, Bildqualität, Stromverbrauch und eben Preis.

Das würde ich nicht so sagen. 8 GB waren die Norm. Aber der Sweetspot? Das ist als Wort (deutlich) zu hoch gegriffen.

crnkoj
2024-12-16, 07:39:58
Ah, falsch geguckt in der Tabelle, stimmt. Danke für den Hinweis.

Aber mir ist es persönlich trotzdem immer noch zu niedrig (immer noch schlechter wie Lovelace). Aber es mag natürlich andere geben, die das nicht so sehr interessiert. Aber wie ich gerade sehe, ist der idle-Verbrauch immer noch aus der Hölle. Also dass sie da in 2 Jahren (fast) nix hingekriegt haben... Wenigstens so 25Watt oder so...

Interessant wäre jetzt noch der Verbrauch bei nem 4k60FPS Video bei Youtube oder im Mediaplayer.

Bin ja mal gespannt, ob nvidia wirklich im ernst nochmals 8GB bei einer 5060 bringt. Es war ja schon absurd, als die 4060 nur 8GB hatte, die 3060 aber 12GB.

Verstehe dein post nicht. Die Effizienz ist besser als bei den 4060 Derivaten, direkt an der 4070.

https://tpucdn.com/review/asrock-arc-b580-steel-legend/images/energy-efficiency.png

Auch der idle Verbrauch mit aspm ist konkurrenzfähig.
Erneut besser als bei der 4060 und im Bereich der 4070
https://tpucdn.com/review/asrock-arc-b580-steel-legend/images/power-idle.png

Gast
2024-12-16, 08:03:14
Das würde ich nicht so sagen. 8 GB waren die Norm. Aber der Sweetspot? Das ist als Wort (deutlich) zu hoch gegriffen.

Und warum waren sie die Norm? ;-)
Ich würde bitten über den Tellerrand zu schauen. Die 8GB Problematik lässt sich gut in den Griff bekommen wenn man wenige Regler etwas runter stellt und die Bildqualität kaum schlechter aussieht als auf Maximum. Sofern überhaupt nötig.
Das hören Leute ungern, die 500 Euro+ für ihre Grafikkarte ausgeben, aber das sagen auch Tests zum neuen Indiana Jones, Cod, etc. Sehen prima aus mit niedrigen Details.

Wie immer werden FPS Zahlen in den Raum geworfen ohne das Spielgefühl zu bewerten. Die Frage ist doch ob man Spaß hat und nicht ob man eine Grafikkarte mit Max Settings zum Ruckeln kriegt...

Und falls jemand kommt mit Zukunftssicherheit.....eh,ja...Immobilien und Aktien kann man sehr gut für die Zukunft kaufen aber bitte bitte bitte nicht Elektronik...das ist wirtschaftlich idiotisch.

Platos
2024-12-16, 09:56:36
Verstehe dein post nicht. Die Effizienz ist besser als bei den 4060 Derivaten, direkt an der 4070.

https://tpucdn.com/review/asrock-arc-b580-steel-legend/images/energy-efficiency.png

Auch der idle Verbrauch mit aspm ist konkurrenzfähig.
Erneut besser als bei der 4060 und im Bereich der 4070
https://tpucdn.com/review/asrock-arc-b580-steel-legend/images/power-idle.png

Die Launch Analyse sagt was anderes. Gemittelt über zahlreiche Tests ist sowohl der idle-Verbrauch als auch der unter Last deutlich schlechter wie bei nvidias last-gen.

Da hilft es auch nichts, wenn man sich einzelne Tests cherry-pickt. Genau dafür ist die Launchanalyse da.

ASPM funktioniert auch nicht mit jedem Mainboard. Dass es überhaupt sowas beaucht, sagt auch schon alles. Das muss im Auslieferungszustand funktionieren, wie bei den anderen auch.

ryan
2024-12-16, 10:46:03
Ich kann mich nicht beklagen.


https://s20.directupload.net/images/241216/l4vlzyub.jpg


Mein ganzes System an der Stockdose geht bis auf 32 Watt runter. Natürlich mit ASPM. Übrigens ist die neue Graphics Software ineffizient bei Battlemage. Wenn die Software nebenbei läuft, habe ich 40 Watt an der Steckdose. Selbst wenn das ungeöffnet nur im Hintergrund läuft. Ich habe das jetzt aus dem Autostart entfernt.

Gast
2024-12-16, 11:07:15
Mag sein. Ändert aber im Vergleich zur Konkurrenz auch nichts an meiner Aussage, dass sie für höhere Auflösungen einfach zu wenig FPS liefert. Da könnte sie auch 24GB VRAM haben und es würde keine Rolle spielen.

Sie könnte aber auch bei 1080p qualitativ höhere Texturen darstellen, bricht nicht ein wenn auch noch große BVH-Strukturen in den VRAM müssen.

Mehr VRAM macht die Karte nicht schneller, aber man kann mehr darstellen ohne langsamer zu werden.

Platos
2024-12-16, 12:03:50
Ich kann mich nicht beklagen.


https://s20.directupload.net/images/241216/l4vlzyub.jpg


Mein ganzes System an der Stockdose geht bis auf 32 Watt runter. Natürlich mit ASPM. Übrigens ist die neue Graphics Software ineffizient bei Battlemage. Wenn die Software nebenbei läuft, habe ich 40 Watt an der Steckdose. Selbst wenn das ungeöffnet nur im Hintergrund läuft. Ich habe das jetzt aus dem Autostart entfernt.

32 watt bei welcher Hardware ?

Die Frage ist aber, wie weit geht das System bei niedriglast runter. Wenn nichts läuft, geht das System in den Energiesparmodus, da zieht es nochmals 10x weniger ;)

GerryB
2024-12-16, 12:10:00
Übrigens ist die neue Graphics Software ineffizient bei Battlemage. Wenn die Software nebenbei läuft, habe ich 40 Watt an der Steckdose. Selbst wenn das ungeöffnet nur im Hintergrund läuft. Ich habe das jetzt aus dem Autostart entfernt.

Macht Sowas auch nen Unterschied beim Spielen?
dito
Overlay ON vs. OFF

Da gibts manchmal merkwürdige Einflüsse.

Kleebl00d
2024-12-16, 12:10:27
Übrigens ist die neue Graphics Software ineffizient bei Battlemage. Wenn die Software nebenbei läuft (...)
Das Thema ist ein alter Hut, das hatte ich schon vor über 10 Jahren - wenn man eine Software auf hat, die Grafikkartendaten ausliest, dann verhindert das vermutlich, dass alle Energiespar-Register gezogen werden.

Damals konnte ich das schön sehen: wenn ich, aus dem Alltagsbetrieb heraus, Afterburner mit den Graphen aufgemacht habe, ist die GPU-Temperatur (etwas, aber durchaus sichtbar) hoch gegangen und dann stabil dort geblieben. Afterburner wieder aus und nach einiger Zeit wieder an, zack, der gleiche Anstieg wieder.

MiamiNice
2024-12-16, 13:46:25
Das hören Leute ungern, die 500 Euro+ für ihre Grafikkarte ausgeben, aber das sagen auch Tests zum neuen Indiana Jones, Cod, etc. Sehen prima aus mit niedrigen Details.


Für mich hört sich das eher nach einer Ausrede an, wenn man keine 500€+ Karte kaufen kann oder will. Was prima aussschaut und was sich prima Spielen lässt, ist btw., eine reine Geschmacksfrage. Frag mal z.b. den User Relex, was er von Deiner Idee hält, die Regler nach links zu bewegen oder wie Spiele mit niedrigen Details und/oder ohne RT und PT aussehen ;D

Gast
2024-12-16, 13:55:15
Für mich hört sich das eher nach einer Ausrede an, wenn man keine 500€+ Karte kaufen kann oder will. Was prima aussschaut und was sich prima Spielen lässt, ist btw., eine reine Geschmacksfrage. Frag mal z.b. den User Relex, was er von Deiner Idee hält, die Regler nach links zu bewegen oder wie Spiele mit niedrigen Details und/oder ohne RT und PT aussehen ;D

Natürlich ist es ein Stück weit subjektiv, aber meistens ist es nun mal so, dass du für das letzte bisschen Detail and Bildqualität unverhältnismäßig viel Rechenleistung brauchst. Leider wird das sehr selten erwähnt.

PS: Mein Monitor/TV war teurer als eine RTX 4090. Ich setze die Prioritäten vielleicht anders. Bilddiagonale > alles andere :-)

anddill
2024-12-16, 14:06:39
Texturen kosten praktisch keine Leistung. Man kann also auch mit einer relativ langsamen Grafikkarte unter 500€ hohe Details nutzen, solange halt der VRAM reicht.

Gast
2024-12-16, 14:38:12
Und warum waren sie die Norm? ;-)
Ich würde bitten über den Tellerrand zu schauen. Die 8GB Problematik lässt sich gut in den Griff bekommen wenn man wenige Regler etwas runter stellt und die Bildqualität kaum schlechter aussieht als auf Maximum. Sofern überhaupt nötig.
Das hören Leute ungern, die 500 Euro+ für ihre Grafikkarte ausgeben, aber das sagen auch Tests zum neuen Indiana Jones, Cod, etc. Sehen prima aus mit niedrigen Details.

Wie immer werden FPS Zahlen in den Raum geworfen ohne das Spielgefühl zu bewerten. Die Frage ist doch ob man Spaß hat und nicht ob man eine Grafikkarte mit Max Settings zum Ruckeln kriegt...

Und falls jemand kommt mit Zukunftssicherheit.....eh,ja...Immobilien und Aktien kann man sehr gut für die Zukunft kaufen aber bitte bitte bitte nicht Elektronik...das ist wirtschaftlich idiotisch.

Nun kann man einen "subjektiven" Bildeindruck eben schlecht zum Maßstab von Vergleichstests machen.

Ich wäre da auch vorsichtig. Ich spiele mit meiner Vega 64 Warhammer: Darktide auf mittleren Details und mit FSR 3.x auf "Performance". So kommen bei UWQHD noch halbwegs spielbare Frameraten herum. Der Unterschied zu höheren Details und besseren FSR-Stufen ist mir allerdings sehr bewusst - das sieht man sofort. Nur brechen dann immer wieder die FPS hart ein.

Was bei neueren Karten heute nur ein Unterschied zwischen hohen/sehr hohen Details sein mag, wird sich morgen dann schon deutlich sichtbarer beim Bildeindruck niederschlagen.

Mega-Zord
2024-12-16, 15:36:22
Preislich deutlich außerhalb meiner Interessenlage. Wenn Intel mal Karten bauen sollte, wo am Preis vorne noch eine 1 oder 2 davor steht, bin ich vielleicht dabei. :D

Exxtreme
2024-12-16, 15:41:28
Preislich deutlich außerhalb meiner Interessenlage. Wenn Intel mal Karten bauen sollte, wo am Preis vorne noch eine 1 oder 2 davor steht, bin ich vielleicht dabei. :D

Das bedeutet, wenn Intel eine Grafikkarte bringt, die RTX 4090-Leistung hat aber 200 EUR kostet dann kaufst du sie nicht weil da eine zusätzliche 1 oder 2 fehlt, oder? :D

#44
2024-12-16, 15:43:49
In der Umfrage habe ich keinen passenden Auswahlpunkt für mich.

- Interessant Intels Fortschritte zu sehen
- Als Käufer uninteressant, da im Entry-Level der neuen Generation zu verorten (aber wäre dort die erste Überlegung)
- Als Preisanker für die Konkurrenz sehr zu begrüßen

Mega-Zord
2024-12-16, 15:45:27
Das bedeutet, wenn Intel eine Grafikkarte bringt, die RTX 4090-Leistung hat aber 200 EUR kostet dann kaufst du sie nicht weil da eine zusätzliche 1 oder 2 fehlt, oder? :D

Wenn du der Meinung bist, dass das realistisch ist, dann stelle ich einen Teil deines Titels ernsthaft in Frage. ;D

Wenn Intel für 1.200 EUR 4090 Performance liefern würde, was immer noch verdammt unrealistisch ist, dann... shut up and take my money. Da sehe ich Intel aber leider nicht innerhalb der nächsten Jahre. Best I can do, ist hoffen, dass die überhaupt am Ball bleiben.

Shink
2024-12-16, 16:17:57
Die Karte ist ok im jetzigen Markt.
Ich würde sogar sagen "die Karte wäre ok im jetzigen Markt". So richtig gut verfügbar ist sie ja gerade nicht. Wenn Verfügbarkeit und Preiskampf bis zur Vorstellung der Konkurrenzprodukte dauert, dann war's das auch schon wieder mit den 5 Minuten Ruhm für Intel.

€: Damit das noch hier steht: Find ich aber schade, prinzipiell könnte die Karte interessant werden. Mal schauen, wie lange die noch eine interessante Wahl ist. Vielleicht geht ja auch im Jänner der Preis in den Keller.

Lehdro
2024-12-16, 16:18:23
In der Umfrage habe ich keinen passenden Auswahlpunkt für mich.

Selbiges hier, aber:
Positiv:
- Preisanker
- ausreichend VRAM

Negativ:
- Treiberperformance inkonsistent
- Idle Verbrauch
(- Verfügbarkeit)

Leonidas
2024-12-16, 16:25:36
andere Gründe?

Lehdro
2024-12-16, 16:28:15
andere Gründe?
Gibt es aber nicht bei Positiv :wink:

Leonidas
2024-12-16, 18:25:10
Ach so .... preislich außerhalb der eigenen Schiene? Sagt ja nicht zwingend aus, dass es zu teuer ist, kann auch zu billig sein.

Platos
2024-12-16, 19:18:32
Ich habe mal durchschnitt wegen idle Verbrauch genommen, aber irgendwie habe ich da nix passendes gefunden.

Mir wäre da sowas wie "zu wenig P/L Steigerung, zu wenig Effizienz unter Last, zu schlechte Idle/Niedriglasteffizienz" lieber gewesen. Und da ich momentan auf einer 4080 bin, wäre natürlich noch "zu niedrige Perfomanceklasse" dazu gekommen.

Ich würde sogar sagen "die Karte wäre ok im jetzigen Markt". So richtig gut verfügbar ist sie ja gerade nicht. Wenn Verfügbarkeit und Preiskampf bis zur Vorstellung der Konkurrenzprodukte dauert, dann war's das auch schon wieder mit den 5 Minuten Ruhm für Intel.

€: Damit das noch hier steht: Find ich aber schade, prinzipiell könnte die Karte interessant werden. Mal schauen, wie lange die noch eine interessante Wahl ist. Vielleicht geht ja auch im Jänner der Preis in den Keller.

Das stimmt natürlich ein Paperlaunch bringt auch keine Stückzahlen.

Naja... Wenn am Ende wenigstens ein paar Prozentpunkte Marktanteil von nvidia abgeluchst werden könnte, wäre das ja mal was. Bisher war es ja eher so, dass Intel den Marktanteil von AMD abgräbt und nvidia mit genau gleich viel dasteht (+/-).

Loeschzwerg
2024-12-17, 08:38:24
[x] Positiver Ersteindruck, könnte interessant werden für eine Neuanschaffung (bzw. schon gekauft).

Meine Arc B580 LE kam gestern an und ersetzt die bisher genutzte A770 LE.

Leonidas
2024-12-17, 09:51:49
Schön. Da ergeben sich sicherlich ein paar Praxis-Berichte, oder?

Gast
2024-12-17, 10:44:25
Der einzigste Grund warum ich eher negativ zu Battlemage bin ist das es mir so vorkommt als würde Intel den rest der Welt verarschen wollen. In ihrer Präsentation reden sie von preis leistung und wie gut sie doch da sind aber dann setzten sie den Preis nur in den USA richtig. Hier ist die Preis Leistung ja nur auf dem selben niveau wie RDNA3 und RDNA2 anstatt deutlich besser wie in den US reviews. In ihrer vorstellung haben sie gesagt, dass die B580 günstiger als die 4060 und Rx 7600 ist aber hier ist die B580 halt gleich teuer wie die 4060 und teurer als die Rx 7600. Ich kann mir halt einfach nicht vorstellen, dass das keine absicht ist. Die machen gute preise in den USA damit die einflussreichsten reviewer sagen, dass es gute preis leistung ist und dann erhöhen sie die Preise im rest der Welt für profit. Selbst hier in deutschland haben die US reviewers wahrscheinlich mehr einfluss als deutschen.

Loeschzwerg
2024-12-17, 12:56:54
Schön. Da ergeben sich sicherlich ein paar Praxis-Berichte, oder?

ASPM möchte ich mir auf meinem System zumindest mal anschauen und sonst bin ich gerade eher an der PS5 unterwegs. Indie und Stalker 2 laufen ja (die stehen bei mir als nächstes an), ausgehend von den Tests und sonst kratzt mich gerade eher weniger an PC-Titeln.
Ältere Titel (auch Retro) liefen schon mit der A770 völlig problemlos. Zumindest meine Auswahl und das erwarte ich auch von der B580.

Es gibt zwar noch Baustellen (siehe u.a. CB, PCGH, HWLUXX;; GoT, Veilguard, Outcast...), aber das sind so vereinzelt wenige, davon wurde ich schon bei der A770 nicht tangiert. Daher finde ich das "Gejammere" teilweise auch etwas übertrieben. Angesprochen gehört es natürlich.

Zum den Problemen des Treibermenüs kann ich nur sagen: AMD war da zu Vega-Zeiten auch sehr wackelig unterwegs. Nicht schön, aber kein Deal-Breaker.

Gast
2024-12-19, 22:43:53
Intel ist im GPU-Bereich Underdog und noch nicht lange aktiv. Dafür ist die B580 sehr solide. Jetzt müsste es sie nur noch für 260€ zu kaufen geben, dann passt es. Positiv überrascht.

Gast
2025-01-21, 18:24:13
Im gesamten gesehen - finde das sehr positiv, richtig gut und wichtig von Intel.
Schon allein zwecks Konkurrenz / Gegengewicht zu den anderen.
Und für einen erst 2.ten Wurf in der GPU Arena - ist das wirklich nicht schlecht. Respekt!

Nur für mich gesehen - für ein 2./3. System, oder für jmd. i.d. Familie der einen anständigen budget PC braucht... ja warum nicht, definitiv einen Gedanken/Versuch wert. Im Hauptrechner mit einer 4090 im big tower, eher nicht. Besser gesagt sowieso gar nichts, ausser eine 5090.

Aber dafür gibt es das ja, die Fähigkeit zum differenziert denken/betrachten können. :D