Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Arc B580 Review-Thread


Seiten : 1 [2]

Radeonator
2025-06-03, 23:23:21
Habe mir eine ARC A750LE günstig geschossen, die hat gar keine der genannten Probleme!

Emil_i_Lönneberga
2025-06-19, 13:54:02
Beschder Kühler: https://shop.alphacool.com/detail/index/sArticle/22230

Haarmann
2025-07-08, 07:12:43
Beschder Kühler: https://shop.alphacool.com/detail/index/sArticle/22230

Für ne CHF 220 Karte nen 130 CHF Kühler? Äh ... nein

Raff
2025-07-08, 09:58:41
Hehe, das ist schon etwas dekadent. Aber möglicherweise gibt es ja schon Voltmods. Eine B580 mit 3,5 GHz wäre eine nette Vorschau auf das, was der größere Battlemage so draufhat. :naughty:

MfG
Raff

Radeonator
2025-07-18, 09:22:19
Intel tut mir da fast schon a bissl leid.
Hätten sie die erste Generation nicht so verkackt, dann wäre die Reputation bei den Gamern besser

Wo hat die ARC A Reihe denn verkackt? Das ist ja kompletter Unsinn! Für die erste Desktop Einheit war das mMn sogar sehr gut und auch das mit jedem Treiber die Leistung hochgeschraubt wurde, war und ist sehr gut Man sollte sich über mehr Konkurrenz freuen und diese unterstützen, anstatt dessen wird immer nur unverhältnismäßig schlecht rezitiert.

Radeonator
2025-07-18, 09:23:29
Hehe, das ist schon etwas dekadent. Aber möglicherweise gibt es ja schon Voltmods. Eine B580 mit 3,5 GHz wäre eine nette Vorschau auf das, was der größere Battlemage so draufhat. :naughty:

MfG
Raff

Laut KI Berechnung sollte die B770 ca 35% mehr Leistung bringen, laut Promo 50% ;)

DrFreaK666
2025-07-18, 09:42:58
Wo hat die ARC A Reihe denn verkackt? Das ist ja kompletter Unsinn!.

Klar...
Hätte Intel es nicht verkackt (Verschiebungen, miese Treiber zum Start), dann wären die jetzt nicht bei 0,x % Marktanteil bei dGPUs

Raff
2025-07-18, 09:52:10
Laut KI Berechnung sollte die B770 ca 35% mehr Leistung bringen, laut Promo 50% ;)

KI hat keine Ahnung. KI -> KA :ugly:

Klar...
Hätte Intel es nicht verkackt (Verschiebungen, miese Treiber zum Start), dann wären die jetzt nicht bei 0,x % Marktanteil bei dGPUs

AMD hat auch tolle Produkte, aber da die "normalen Kunden" alle naselang falsch beraten werden, verkauft sich Schmodder wie die RTX 5060 und RTX 5050 trotzdem wie geschnitten Brot.

MfG
Raff

RoughNeck
2025-07-18, 10:50:08
Es sind halt die Typischen Karten für Media Markt und Co.
Da lässt sich gut werben damit und ahnungslose Kunden werden halt abgezogen, gerade wenn da 8GB Versionen drin sitzen.

Radeonator
2025-07-25, 07:54:20
Klar...
Hätte Intel es nicht verkackt (Verschiebungen, miese Treiber zum Start), dann wären die jetzt nicht bei 0,x % Marktanteil bei dGPUs

Auch das stimmt so einfach nicht und ist kein Parameter. Zum einen haben die Treiber in den Spielen, die ich zu dem Zeitpunkt gespielt habe nicht verkackt und waren beim launch schon OK und zum anderen hat intel immer so fix nachgeliefert, das auch die Probleme in <DX12 schnell behoben wurden. Klar sind das jeweils subjektive Eindrücke, wäre jetzt eines der damaligen "Problemspiele" mein Lieblingsspiel gewesen, hätte ich auch eine andere Sichtweise. Der niedrige Marktanteil ist gerade eben diesen pauschal Aussagen und der Medienwelt zu verdanken, die inzwischen immer gerne im Trend mitlaufen. Ergo wenn ein größerer Streamer Scheisse berichtet, blasen 80% der anderen ins gleiche Horn. Ich war sogar sehr zu frieden mit der A770 und auch meine jetzige Ersatzkarte, die A750, läuft ohne Probleme in den Games, die ich aktuell damit spiele (Dying Light, BO6, MW III, Vanguard und eFootball)
Der Markt reagiert auf ganz andere Faktoren, das war schon immer so und User vertrauen Medien/Streamern und verstehen dabei die Hälfte von dem was da steht/gesprochen wird gar nicht. Das Spiel mit der Masse beherrscht nVidia schon immer am besten. Das war schon zu TNT Zeiten so!

DrFreaK666
2025-07-25, 08:20:11
Zum einen haben die Treiber in den Spielen, die ich zu dem Zeitpunkt gespielt habe

Schön für dich?`
Was hat deine Erfahrung mit der Erfahrung Vieler zu tun?

"Intel Arc A380 im Test: Die zahlreichen (Treiber-)Probleme mit der Arc A380"

"because there are numerous layers of driver bugs to deal with ... The official "stable" 101.1743 driver from Intel's website is everything but! I encountered numerous bugs including bluescreens, corrupted desktop after startup, random systems hangs, system getting stuck during shutdown sequences, and more—very frustrating issues that made me ask myself "WTF? Has anybody even tested this driver once?". A couple of times I had to replace the Intel card with an NVIDIA card so that Windows would actually boot"

"Performance on Intel Arc GPUs has suffered from poor driver support, particularly at launch. An investigation by Gamers Nexus discovered 43 known driver issues with Arc GPUs"

Klar sind das jeweils subjektive Eindrücke,
Na immerhin

Und ich hab ja "miese Treiber zum Start" geschrieben.
Intel hat nachgeliefert, ja. Aber der erste Eindruck zählt meistens

dildo4u
2025-07-25, 09:12:32
Nvidia produziert immer noch 3060 wird allem vorgezogen auch dem neuen AMD Karten.
Kommt davon wenn AMD und Intel nicht aggressiv genug sind.

https://www.newegg.com/d/Best-Sellers/GPU-Video-Graphics-Device/c/ID-38

https://www.amazon.com/Best-Sellers-Computer-Graphics-Cards/zgbs/pc/284822

Raff
2025-08-19, 14:02:46
Battlefield 6 als Beigabe beim Kauf einer Intel-GPU oder -CPU: https://www.pcgameshardware.de/Battlefield-6-Spiel-75270/News/kostenlos-Bundle-Intel-CPU-GPU-1480066/

Das ist schon ein Brett. B580 minus Battlefield 6: Das sind effektiv nur noch 200 Euro. :up:

0yH2lkJhPlY

MfG
Raff

dildo4u
2025-08-19, 14:26:56
Jup haben sie sich mal Mühe gegeben man weiß ja nie wo die Karte landet.


https://www.techpowerup.com/review/battlefield-6-open-beta-performance-benchmark/2.html

Haarmann
2025-09-11, 20:50:08
Und als ich mich mal wieder mit meiner Acer B580 Nitro beschäftigte ... lernte ich Intels verkehrte Welt kennen.

Ich versuchte mich diesmal mit den Advanced Einstellungen und der Tuning Kurve und stellte staunend fest - Intel vertauscht entgegen imo jeder Logik die X und Y Achse bei der Darstellung.

Glücklicherweise habe ich das nun doch noch begriffen und so sind die Karten mit BF6 gleich noch ne Ecke besser.

dildo4u
2025-09-30, 13:11:42
Nachtest mit neuen Treibern.


gfqGqj2bFj8

DrFreaK666
2025-09-30, 13:32:16
Also immer noch eher nicht so geil

Raff
2025-09-30, 13:46:24
Einfach die Grafiklast erhöhen und gut. Nieder mit Tetris-Auflösungen! ;)

MfG
Raff

Exxtreme
2025-09-30, 13:59:16
Raff hat sich damit implizit gegen Upscaling ausgesprochen! Sehr gut! Er macht Fortschritte!

Ansonsten toll, dass Intel an diesem Manko arbeitet.

ryan
2025-09-30, 13:59:48
Der Sprung kam von 7026 auf 7028, der Treiber ist gerade einmal 1 Monat alt. Im changelog steht nichts diesbezüglich. Es wäre schön, wenn Intel solche Verbesserungen besser kommuniziert.

DrFreaK666
2025-09-30, 14:14:57
Einfach die Grafiklast erhöhen und gut. Nieder mit Tetris-Auflösungen! ;)

MfG
Raff

Ja gut. Es wurde ja oft in mit Medium gemessen. Die Texturen sind also auch Medium, was den 8GB hilft

Raff
2025-09-30, 14:32:59
Raff hat sich damit implizit gegen Upscaling ausgesprochen! Sehr gut! Er macht Fortschritte!

Bezogen auf die Entwicklung der Spiele wäre das ein Rückschritt. ;) Eine Rückbesinnung dieser Art wird es nicht geben, bis man andere Wege als Strukturbreitenschrumpfung findet, um die Leistung zu erhöhen.

MfG
Raff

HOT
2025-09-30, 14:41:25
Das sind bisher noch Einzeloptimierungen für bestimmte Spiele, da kommt sicherlich noch ne globale Optimierung.

dargo
2025-09-30, 15:26:28
Einfach die Grafiklast erhöhen und gut. Nieder mit Tetris-Auflösungen! ;)

Willst du Upscaling wieder abschaffen? :lol:

Raff
2025-09-30, 15:41:17
Willst du Upscaling wieder abschaffen? :lol:

Nee. Höhere Details -> komplexere Shader -> mehr Grafiklast -> weniger CPU-Hassle.

MfG
Raff

aufkrawall
2025-09-30, 15:54:06
Oder als Kunde einfach Intel ignorieren, bis sie ihre Hausaufgaben gemacht haben. Die B580 war sowieso nichts Ganzes und nichts Halbes.
Die 85€ Aufpreis für die 9060 XT 16GB sind ja fast schon ein unverschämt gutes Angebot im Vergleich.

Raff
2025-09-30, 16:17:35
Jetzt schon. Eine lange Zeit gab es nur die 7600 XT irgendwo zwischen 300 und 350 Euro, da war die B580 eine interessante Option.

MfG
Raff

dargo
2025-09-30, 16:23:50
Oder als Kunde einfach Intel ignorieren, bis sie ihre Hausaufgaben gemacht haben. Die B580 war sowieso nichts Ganzes und nichts Halbes.
Die 85€ Aufpreis für die 9060 XT 16GB sind ja fast schon ein unverschämt gutes Angebot im Vergleich.
Eben... das hier bekomme ich aktuell für 336€.
https://www.galaxus.de/de/s1/product/sapphire-pulse-radeon-rx-9060-xt-16-gb-grafikkarte-59129890?utm_campaign=preisvergleich&utm_source=geizhals&utm_medium=cpc&utm_content=2705624&supplier=2705624

Intel ist da leider keine Option mit einiges an weniger Performance und auch Speicher. Da muss sich Intel leider mehr bemühen damit die als Alternative wahr genommen werden.

Edit:
Wobei das hier fast einen Hunni weniger kostet.
https://www.galaxus.de/de/s1/product/asrock-arc-b580-challenger-oc-12-gb-grafikkarte-53200904?utm_campaign=preisvergleich&utm_source=geizhals&utm_medium=cpc&utm_content=2705624&supplier=2705624

Wer also ein max. Budget von 250€ hat, für den könnte B580 womöglich keine schlechte Wahl sein. Keine Ahnung aber ob der Kühler was taugt.

Haarmann
2025-10-10, 13:55:17
Nana ...

Die Hausaufgaben hat Intel sowas von gemacht.

Timespy hat ja nicht nur nen GPU, sondern auch nen CPU Wert. Und bei einer 8400F CPU siegt nicht AMD, nicht NVidia, sondern der Intel Treiber.

Und da ich das identische Gerät mit mehreren Intel Treibern jetzt auch sehe in der Entwicklung. Die habens wirklich hinbekommen. Hut ab.

][immy
2025-10-10, 14:37:32
Nana ...

Die Hausaufgaben hat Intel sowas von gemacht.

Timespy hat ja nicht nur nen GPU, sondern auch nen CPU Wert. Und bei einer 8400F CPU siegt nicht AMD, nicht NVidia, sondern der Intel Treiber.

Und da ich das identische Gerät mit mehreren Intel Treibern jetzt auch sehe in der Entwicklung. Die habens wirklich hinbekommen. Hut ab.

Du verstehst aber schon den Unterschied zwischen Benchmark und Spiel...
Es muss in den spielen eine gute Figur machen. Der Benchmark ist eh gecheatet ohne ende so wie die GPU Hersteller darauf optimieren. Am ende muss es aber eine generell gute Performance geben und da ist Intel leider nach wie vor weit entfernt von, auch wenn sie sich bessern.
Sie hätten die Probleme einfach mit etwas besserer Hardware erschlagen können, haben sie leider noch nicht. Aber das man besonders bei kleineren CPUs schlecht steht auf die man eigentlich abzieht ist eher unschön. Natürlich auch das die anderen GPUs da auch noch verbesserungsfähig sind.

Abseits der aktuellen high end CPUs scheint niemand mehr zu testen, Haupt-Sache es läuft irgendwie.

Daredevil
2025-10-10, 15:07:14
Das ist aber auch nur eine Seite der Medaille. Nicht jeder der sich ne B570/580 holt hat einen Uralt Prozessor, ein "neuer" vernünftiger Arrow Lake fürs Gaming kostet um die 150-200€ und hat irgendwas zwischen dem 5800X3D und 7800X3D an Leistung. Du musst dir natürlich keinen 9800X3D kaufen, Intel Einstiegssegment leistet das, was zu Battlemage dann auch passt, mit bekannten Vor- und Nachteilen.
Und selbst wenn es n kleine Kiste von der 13th oder 14th Gen ist, da ist auch genug Dampf unter der Haube. Wer mit Zen1-3 ankommt, für den ist es dann halt nicht optimal.

Exxtreme
2025-10-10, 15:15:35
Treiber-Overhead ist immer schlecht, egal welche CPU. Bei den Minimum-FPS merkt man das meistens. Und das beeinflusst auch Akku-Laufzeiten bei Laptops negativ.

Daredevil
2025-10-10, 15:26:51
Ich sag ja auch nicht, dass es gut ist. Das man aber davon ausgeht, das ausschließlich ultra sparsamer Gamer mit 8 Jahre alten Prozessoren nun eine neue Grafikkarte und dann auch noch von Intel kaufen, ist eben auch nicht richtig. Ein aktueller Budget Core Ultra ist teilweise 30-40% schneller in reiner SC Leistung als Zen3, das wird schon einen Unterschied machen beim Treiber Overhead. Somit kann man sich easy nen FHD/WQHD Setup zusammen basteln rein aus Intel Komponenten, wenn man den Ritt wagen will. :D

Eine Empfehlung bekommt es dadurch aber natürlich nicht, dazu ist Battlemage mittlerweile wieder zu abgeschlagen.

Haarmann
2025-10-11, 12:02:02
[immy;13824746']Du verstehst aber schon den Unterschied zwischen Benchmark und Spiel...
Es muss in den spielen eine gute Figur machen. Der Benchmark ist eh gecheatet ohne ende so wie die GPU Hersteller darauf optimieren. Am ende muss es aber eine generell gute Performance geben und da ist Intel leider nach wie vor weit entfernt von, auch wenn sie sich bessern.
Sie hätten die Probleme einfach mit etwas besserer Hardware erschlagen können, haben sie leider noch nicht. Aber das man besonders bei kleineren CPUs schlecht steht auf die man eigentlich abzieht ist eher unschön. Natürlich auch das die anderen GPUs da auch noch verbesserungsfähig sind.

Abseits der aktuellen high end CPUs scheint niemand mehr zu testen, Haupt-Sache es läuft irgendwie.

Mein Testobjekt diesmal war ein einfacher PC mit einer AM5 CPU der absoluten Einsteigerklasse - einer 8400F. Definitiv passend zur Karte im Preispunkt.

Ergo ein B650 Board von GA mit WLAN (gabs mal für wirklich wenig Geld), eine NVME von TeamGroup, 2 mal 16 GB DDR5 5600 von G.Skill, Towerkühler UX200- reicht für diese B580. Dazu ein normales NT mit üppigen 700W und einzelnen PCIe Steckern (ist nett für die Optik). Das Ganze wurde in einen Sharkoon TG7M Tower drappiert, den ich spottbillig bekam.

Low Budget Kiste und ich habe jede Menge 8400F Scores mit einer B580 im Sortiment.

Verglichen mit gammeligen 8 GB 9060 XT oder 50xx Karten ... wirklich solide Werte und ich kann darauf FortNite, das ist mein Testshooter für sowas, tiptop spielen mit meinen Settings - DX12 also ohne Legografik auf nem UWQHD Monitor. Native Auflösung und nicht skaliert. Er stottert nicht im Gefecht.

dildo4u
2025-10-11, 12:42:28
Low Settings machen natürlich kein Sinn da man dann die 12GB nicht nutzt.


J_-LjnseXmw

Haarmann
2025-10-11, 13:56:05
Low Settings machen natürlich kein Sinn da man dann nicht die 12GB nutzt.


https://youtu.be/J_-LjnseXmw

Nettes Video ... Fortnite 240 fps 1% - NVidia - weniger denn 240. Die Peaks frisst G-Sync / Freesync weg. Die Lows eben nicht.

Hausaufgaben gemacht - die Karte ist spottbillig zu haben im Prinzip.

NVidia verkauft noch reihenweise 3060 12 GB - die sieht kein Land gegen die B580 - kostet aber ca gleichviel.

Fusion_Power
2025-10-11, 14:37:16
Sind mittlerweile zumindest die relativ hohen Idle-Verbräuche von Arc Grafikkarten gefixt? Da war doch mal was...

dildo4u
2025-10-11, 14:42:07
Immer noch schlecht sobald man überhaupt was auf dem Desktop macht.


https://i.ibb.co/ZzkVGNkF/Screenshot-20251011-144310-Samsung-Internet.jpg (https://ibb.co/DfStzLSv)

https://www.computerbase.de/artikel/grafikkarten/intel-arc-b580-limited-edition-test.90585/seite-7#abschnitt_lautstaerke__kuehlung

Daredevil
2025-10-11, 19:46:26
Sind mittlerweile zumindest die relativ hohen Idle-Verbräuche von Arc Grafikkarten gefixt? Da war doch mal was...
Waren sie imho schon im Dez 2024 mit den "richtigen" Settings.

Idle Verbrauch mit 245K + Z890 + B580 - ASPM aktiv.

HDMI an B580
4K60HDR
dGPU: 11w
Wall: 56w

HDMI an B580
4K120HDR
dGPU: 17w
Wall: 68w

-----------------------------------------

HDMI an Thunderbolt 4 via Adapter
4K60HDR
dGPU: 4w
Wall: 39w

HDMI an Thunderbolt 4 via Adapter
4K120HDR
dGPU: 4w
Wall: 42w

-----------------------------------------

Monitor angeschlossen jeweils an iGPU via TB4 gemessen an der Wand
4K120HDR ohne dGPU: 34w
4K120HDR mit dGPU ohne ASPM: 78w
4K120HDR mit dGPU mit ASPM: 42w

Ein komplettes Desktop System mit einem fetten Z890 mit um die 40w habe ich in der Vergangenheit selten gesehen. Mit Intel Deeplink kannste die dGPU quasi deaktivieren, dann übernimmt die iGPU die Arbeit im Office Kram.

dildo4u
2025-10-11, 20:35:03
Muss man dafür Intel Boards kaufen?

Daredevil
2025-10-11, 20:38:36
Da gehe ich von aus. AMD hat glaube ich was ähnliches, dazu habe ich aber keine Praxis Erfahrung. Ich hatte nur mal für nen Monat Arrow Lake und B580.

Fusion_Power
2025-10-11, 20:54:40
Immer noch schlecht sobald man überhaupt was auf dem Desktop macht.


https://i.ibb.co/ZzkVGNkF/Screenshot-20251011-144310-Samsung-Internet.jpg (https://ibb.co/DfStzLSv)

https://www.computerbase.de/artikel/grafikkarten/intel-arc-b580-limited-edition-test.90585/seite-7#abschnitt_lautstaerke__kuehlung
Ok, na wenns zumindest nen (umständlichen) Workaround gibt - besser als nichts. Komisch dass mit der B Serie nicht gleich diese Probleme die die A Serie aufzeigte angegangen wurden. Von diesem "ASPM" hatte ich vorher auch noch nie was gehört. Wüsste nicht mal ob mein Bios sowas hat aber mein Mainboard ist auch schon 10 Jahre alt. Schaffe aber dank NVidia GPU auch so meine 30-40W im idle. Ganz ohne Frickelei im Bios.

Haarmann
2025-10-12, 08:17:54
Daredevil

Aus Neugierde habe ich mir auch ein B860/245K System geholt (der K war sogar günstiger, denn der KF) ... positive Überraschung. Preislich und Leistungsmässig auf der 7700 Ryzen 7 Tray, die schwierig zu bekommen sind inzwischen, Linie.

Kann nicht fliegen ... aber läuft solide imo.

Den Trick mit der B580 werd ich ergo auch mal testen, denn der PC steht meisst mit einfachen Aufgaben da.

Raff
2025-10-28, 21:09:12
Nutzt hier jemand Reshade mit Arc? Falls ja: Fluppt das? Ich habe hier Probleme, die andere Grafikkarten nicht zeigen. :uponder:

MfG
Raff

Raff
2025-11-04, 11:49:49
Arc Pro B60 im Test mit 40 Spielen: Was kann eine Arc B580 mit 24 GiByte? (https://www.pcgameshardware.de/Intel-Arc-Grafikkarte-267650/Tests/Pro-B60-vs-B580-vs-RTX-5060-Ti-vs-RX-9060-XT-Preis-Benchmark-24GB-1485345/)

... in arbeitsteilender Kooperation mit Igor’s Lab. :up:

Igor: Workstation-Tests, Teardown, Materialanalyse
PCGH: Gaming, VRAM-Fokus, Effizienzabhandlung

MfG
Raff

Shink
2025-11-04, 12:33:33
Danke! Schön, dass ihr auch so "Randinteressensgruppen"-Artikel macht. Finde das Ergebnis auch spannend.

Raff
2025-11-06, 10:39:18
Immer wieder gerne. =)

W4eHtgtRw3g

... auch wenn das Interesse hier sehr überschaubar ist - die "B770" wird das hoffentlich ändern. :)

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=94557&stc=1&d=1762422011

MfG
Raff