Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Intel bringt mit der "Arc A380" seine erste "Alchemist"-basierte ...


Leonidas
2022-06-16, 15:10:15
Link zur News:
https://www.3dcenter.org/news/intel-bringt-mit-der-arc-a380-seine-erste-alchemist-basierte-desktop-grafikkarte-heraus

Lehdro
2022-06-16, 15:41:35
Was für ein Reinfall. Aber hey, Intel ist wie immer großartig in Benchmarks und Ankündigungen, wer hätte das nur erahnen können :D

Typisches Intelprodukt: Großspurig angekündigt, mehrfach verschoben, undurchsichtige Benchmarks und ein Launch der nur dazu dient vor Aktionären eben diesen verkünden zu können.

Fusion_Power
2022-06-16, 15:42:47
Hmm, vergleicht Intel hier wirklich ihre 75W Grafikkarte mit einer 53W Grafikkarte? Bei sowas sollte man immer aufpassen, bzw. die Performance per Watt berücksichtigen.
Und eine RX6400 kostet immer noch 160€? Wow, da geht aber noch was, hoffe ich.
Ich bin wirklich auf finale Praxistests gespannt von Intels Airbus A380 & Co., denn ich bezweifle, dass deren Treiber schon so gut sind um es mit AMD und Nvidia aufzunehmen, unabhängig von den theoretischen Leistungsdaten der Grafikkarten.

Linmoum
2022-06-16, 15:53:15
Das hat alles harte GCN-Vibes. Das eine Unternehmen musste damals einzelne Chips und Architekturen für jedes Einsatzgebiet zweckentfremden und hatte gar nicht erst die (finanziellen) Möglichkeiten, auf mehreren Hochzeiten zu tanzen.

Jetzt kommt Intel mit derselben Nummer. Rohleistung, SI, Bandbreite, Die-Size, Verbrauch. Mit allem die Konkurrenzchips erschlagen und übertreffen und dann nicht einmal mit dem Vollausbau einen harten Salvage der Konkurrenz trotz deutlicher Hardware-Überlegenheit in die Schranken weisen. Das alles ausschließlich und komplett auf die Treiber zu schieben, ist mir auch zu einfach.

Das ist für ein milliardenschweres Unternehmen einfach nur erschreckend schlecht. Zumal Treiber als Ausrede auch nicht gelten, die iGPUs haben sie nicht erst vor Wochen neu dazugekauft. Alleine dadurch muss softwareseitig genug Expertise vorhanden sein. Keine Ahnung, warum das trotzdem nicht der Fall ist.

Leonidas
2022-06-16, 16:08:47
Weil Nach-Oben-Skalierung in der Praxis wohl viel schwieriger ist als es in der Theorie erscheint. Intel hat sich augenscheinlich etwas verhoben.

GerryB
2022-06-16, 16:51:19
Oder Intel braucht momentan mehr W/MHz als gedacht, so das mit nur "Strom per PCiE-Slot" halt 75W den Takt zu sehr begrenzt.
Von Gunnir soll die Graka auch als 92W-Modell mit 2450MHz kommen.
https://www.techpowerup.com/295899/gunnir-announces-custom-arc-a380-photon-oc-graphics-card

Das ist halt immer der Punkt wo Theorie an der Praxis scheitert. (theoretische Flops vs. machbarer Takt@Powerlimit)

Dino-Fossil
2022-06-16, 16:55:29
Wobei der zusätzliche Takt für heutige OC-Verhältnisse so schlecht nicht wäre, scheint wenigstens nicht an der Kotzgrenze zu operieren.

Leonidas
2022-06-16, 16:59:12
Vielleicht ist A380 auch nicht ganz ausgefahren, da man unbedingt bei 75W bleiben wollte. Das ist dann die Reserve, die A780 vielleicht nach oben hat. Aber ob es jemals erscheint? Intel dürfte alles nur noch pro Forma rausbringen - es lohnt kaum noch, da Energie reinzustecken.

ChaosTM
2022-06-16, 17:00:01
Weil Nach-Oben-Skalierung in der Praxis wohl viel schwieriger ist als es in der Theorie erscheint. Intel hat sich augenscheinlich etwas verhoben.


Das war die typische Dampfplauderei* von Pat der Gelse. Die wussten ganz genau was da kommt.


*nennt man hierzulande auch "Lügen"
Das war vielleicht etwas hart. Marketingtechnische Übertreibung :)

Κριός
2022-06-16, 18:25:58
Weil Nach-Oben-Skalierung in der Praxis wohl viel schwieriger ist als es in der Theorie erscheint. Intel hat sich augenscheinlich etwas verhoben.

Wäre es eine Hardware Sache, dann hätte Intel sicherlich weitere Tape-outs hinter sich um nachzubessern. Meine Vermutung wäre eher das Intel die Treiber nicht in den Griff bekommt.

Das wäre auch nicht verwunderlich, da nicht einmal Microsoft sich an die eigenen Standards hält. Hardware mit allem lauffähig zu machen und dazu noch performant braucht mehr als ein Jahr. Die Tatsache das viele Spiele nicht einmal starten wollen spricht meiner Meinung nach dafür.

Gast Ritis
2022-06-16, 18:36:13
Die Ergebnisse würden mich jetzt nicht schrecken wenn nicht schon 6 Monate extra in die Treiberentwicklung geflossen wären.

Sollen wir nun annehmen Intel hat die GPUs mit Games nur rudiementär zum Laufen gebracht oder ist das in Anbetracht der Grösse von Intel und deren unterstellten Expertise bereits schon ausoptimiert?

Ich meine die haben doch mit Embree eine eigene Raytracing API entwickelt und schon Jahre bereits iGPUs auf rudimentären Gaming-Support getrimmt. Mit XeSS will man gar revolutionäres offenes AI-Upsampling entwickelt haben.
Kaum zu glauben die haben irgendwo noch Krücken im Treiber der das Skalieren der FPS auf dGPUs verhindert.

Ich bin mal auf Anwendungsperformance gespannt wo andere die Arbeit der Optimierung auf Basis der OneAPI machen.

bbott
2022-06-16, 20:10:55
Hmm, vergleicht Intel hier wirklich ihre 75W Grafikkarte mit einer 53W Grafikkarte? Bei sowas sollte man immer aufpassen, bzw. die Performance per Watt berücksichtigen.
Und eine RX6400 kostet immer noch 160€? Wow, da geht aber noch was, hoffe ich.
Ich bin wirklich auf finale Praxistests gespannt von Intels Airbus A380 & Co., denn ich bezweifle, dass deren Treiber schon so gut sind um es mit AMD und Nvidia aufzunehmen, unabhängig von den theoretischen Leistungsdaten der Grafikkarten.
Du hast vergessen das Intel eine bessere Fertigung nutzt. Labree lässt grüßen. HW und SW ist schlechter und hängt Jahre hinterher.

GerryB
2022-06-16, 21:01:43
btw.
Die 6400 im MS für 149€!

Muss Intel jetzt seine "Schätzung" ändern, ... die noch auf 169€ basiert?

Platos
2022-06-16, 21:52:54
Schnarch...

Prinzenrolle
2022-06-16, 23:49:38
Etwas unterhalb der Erwartungen, aber wenn das Ding noch rund 10% durch Treiber zulegt und das ab und zu auftretende Stuttering verbessert wird, könnte Intel den Markt durchaus aufmischen.


Von Gunnir soll die Graka auch als 92W-Modell mit 2450MHz kommen.
https://www.techpowerup.com/295899/gunnir-announces-custom-arc-a380-photon-oc-graphics-card

Wenn die 20% mehr Takt durchschlagen, erreicht man damit zumindest knapp eine 6500XT bei leicht niedrigerem Strombedarf.

Linmoum
2022-06-17, 00:21:31
"Etwas" ist aber noch völlig untertrieben. Das wäre es, wenn sich das Ding vielleicht 10% einer 6500XT (vergleichbare Shaderanzahl, die 6500XT hat aber nur 4GiB, 64bit SI, weniger Bandbreite, nur x4 Lanes) geschlagen geben würde.

Die A380 muss sich aber mit einem der stärksten Abfallprodukte seit etlichen Jahren rumprügeln und kann selbst dieses Duell nicht klar für sich entscheiden. Das ist erschreckend gruselig.

Markt aufmischen, lol. Der war gut. Da hätte man von sprechen können, wenn man die 6500XT (die immer noch auf einem 107mm² winzigen Mobile-Die basiert und nur Resteverwertung als dGPU ist) in die Schranken verwiesen hätte. Davon ist man aber Galaxien entfernt.

Die Gunnir hat einen 8-Pin (!!!), wieso soll die Karte da nur 92W (!) verbrauchen? Zweistelliger Verbrauch, aber einen 8-Pin für 225W auf die Karte klatschen. Na klar. ;D

Davon ab: 75W -> 92W (+~22.5%)
2000MHz -> 2450 MHz (+22.5%)

Wenn das so einfach wäre und die Performance (Takt skaliert immer ziemlich gut) entsprechend steigen würde, hätte Intel das Produkt selbst so auf den Markt gebracht. Im Vergleich zu der 75W-Konfig wäre der Effizienzverlust nahe Null, die Performance - theoretisch - aber deutlich höher. Hat sicher einen Haken, warum das nicht passiert (ist).

Edit: Ach, nvm. Hat sich erübrigt. Die 2000MHz der Referenz sind ja nur Base Clock, die 2450MHz der Gunnir hingegen bereits max. Takt. Die Referenz wird beim Boost also sicherlich bereits nah an letzterem liegen. Ergibt auch viel mehr Sinn.

iamthebear
2022-06-17, 00:49:47
Spätestens wenn Nvidia mit 4N Fertigung und AMD mit seinen Zen4/RDNA3 APUs ankommt bleibt von Intel nichts mehr übrig.
Ich Frage mich wie blöd Intel erst dastehen wird wenn sie Ende des Jahres ihre "High End" Modelle gegen Navi33 launchen müssen und AMD wieder seine "wir haben gleich große Chips beide auf 6nm" Folien raus holt. Das wird ein Gemetzel.

Und nein ich denke nicht, dass Treiber Intels größtes Problem sind. Das Design an ist einfach extrem ineffizient.

Unrockstar
2022-06-17, 01:52:32
https://www.notebookcheck.com/Intel-Arc-A730M-Auch-mit-offiziellem-Treiber-Support-bleibt-die-Gaming-Leistung-miserabel.626644.0.html

Puh, also wenn sich das nicht verbessert, dann sehe ich schwarz..81% mehr Shader für das bissl mehr an Leistung?
Da passt einiges nicht.

Rabiata
2022-06-17, 02:05:50
Hmm, vergleicht Intel hier wirklich ihre 75W Grafikkarte mit einer 53W Grafikkarte? Bei sowas sollte man immer aufpassen, bzw. die Performance per Watt berücksichtigen.
Und eine RX6400 kostet immer noch 160€? Wow, da geht aber noch was, hoffe ich.
Ich bin wirklich auf finale Praxistests gespannt von Intels Airbus A380 & Co., denn ich bezweifle, dass deren Treiber schon so gut sind um es mit AMD und Nvidia aufzunehmen, unabhängig von den theoretischen Leistungsdaten der Grafikkarten.
In Preis/Performance scheint AMD Niveau erreicht zu sein, und 2 GB extra sind ein nettes Argument. Von daher könnte Intel mit ARC schon Fuß fassen.
Verbrauch/Performance ist noch eine klare Schwäche, aber AMD ist bei Polaris auch damit durchgekommen. Mit 75W absolut könnte man leben, denke ich.

Problematisch sind offenbar noch die Treiber. Wild schwankende Frameraten gab es auch, als Steve von GN die DG1 testete. Da finde ich es etwas enttäushend, daß das Problem ein Jahr später noch da ist. Ist bei Intel niemand da, der sowas debuggen kann? Nötig wäre es.

DozerDave
2022-06-17, 08:12:24
Sieht für mich wie der nächste Erfolg von Raja Koduri aus.

Freestaler
2022-06-17, 09:05:15
Sieht für mich wie der nächste Erfolg von Raja Koduri aus.
*schöneZusammenfassung*

Ich freu mich ja ab dem dritten Player, denke jedoch intel könnte mehr. Wo klemmts?

WedgeAntilles
2022-06-17, 10:51:28
Markt aufmischen, lol. Der war gut. D
He, laut Peddi Research haben die mit einer Graka, die es in keinem Land außer Korea gibt (wo man angeblich irgendwo mal 2 Modelle kaufen konnte) geschafft, auf 4% Marktanteil zu kommen.

Was glaubst du, passiert dann erst mit dem Marktanteil, wenn es die Dinger tatsächlich gibt?
Da sind dann vermutlich auch Marktanteile von 101% drin ;D


(Falls der Rest von Peddi ein ähnliches Qualitätsniveau hat wie die Intel-GPU-Marktanteile kann man deren Zahlen jedenfalls getrost in den Müll werfen.)

Unrockstar
2022-06-17, 14:37:54
In Preis/Performance scheint AMD Niveau erreicht zu sein, und 2 GB extra sind ein nettes Argument. Von daher könnte Intel mit ARC schon Fuß fassen.
Verbrauch/Performance ist noch eine klare Schwäche, aber AMD ist bei Polaris auch damit durchgekommen. Mit 75W absolut könnte man leben, denke ich.

Problematisch sind offenbar noch die Treiber. Wild schwankende Frameraten gab es auch, als Steve von GN die DG1 testete. Da finde ich es etwas enttäushend, daß das Problem ein Jahr später noch da ist. Ist bei Intel niemand da, der sowas debuggen kann? Nötig wäre es.

Laut Igorslab hat man die separaten Treiberteams wieder gekickt.. Also alles was bei RTG gekickt wurde und zu Intel ging. Mit einem 3 Mann iGPU Team kannst du sowas nicht stemmen.. Aber ich glaube immer mehr, ARC wird nicht im Einzelhandel erscheinen, bei den Problemen

Platos
2022-06-17, 14:43:50
Ich sage ja schon lange, dass das hauptsächlich ne OEM Generation wird. Das wird auch so bleiben. Was in China passiert, ist ne andere Sache. So oder so, Intel wirds einfach totschweigen und irgendwann mit der nächsten Gen daherkommen. Vlt. wird die ja besser, aber das sollte man zuerst einmal bezweifeln.

OpenVMSwartoll
2022-06-17, 16:39:19
Also krankt es, wie erwartet, massiv auch am Treiber. Wenn der Unterbau nicht funktioniert, muss man nicht nach oben skalieren.

Prinzenrolle
2022-06-17, 17:41:59
"Etwas" ist aber noch völlig untertrieben. Das wäre es, wenn sich das Ding vielleicht 10% einer 6500XT (vergleichbare Shaderanzahl, die 6500XT hat aber nur 4GiB, 64bit SI, weniger Bandbreite, nur x4 Lanes) geschlagen geben würde.

Man kann selbstverständlich alles schlechtreden, wenn man will.

Meridian12
2022-06-17, 17:48:32
Im Endeffekt verkaufen sich die Intel Karten eh nur über den Preis.

Und da muss Intel schauen, bei welchem Gegenstück sie landen und dann die Preise entsprechend so günstig machen, dass man zu Intel greift ,statt zu AMD oder NVIDIA.

Und wenn das preislich nicht machbar ist,weil sonst Verlust pro Karte,dann muss man sie halt als "Lernkarte" für die 2te Generation ansehen bei Intel.

ChaosTM
2022-06-17, 18:43:16
Kein allzu guter Zeitpunkt für den Launch eines neuen Produktes, jetzt wo massenweise gebrauchte Karten in den Markt strömen, aber der 380er ist sowieso eher Lowest end, von daher sollte es passen..
Die erste Gen. wird Intel wohl als Lehrgeld abschreiben müssen.

Fusion_Power
2022-06-17, 18:51:10
In Preis/Performance scheint AMD Niveau erreicht zu sein, und 2 GB extra sind ein nettes Argument. Von daher könnte Intel mit ARC schon Fuß fassen.
Verbrauch/Performance ist noch eine klare Schwäche, aber AMD ist bei Polaris auch damit durchgekommen. Mit 75W absolut könnte man leben, denke ich.

Problematisch sind offenbar noch die Treiber. Wild schwankende Frameraten gab es auch, als Steve von GN die DG1 testete. Da finde ich es etwas enttäushend, daß das Problem ein Jahr später noch da ist. Ist bei Intel niemand da, der sowas debuggen kann? Nötig wäre es.
Ich frage mich da manchmal was besser wäre: Treiber die an die Spiele angepasst sind oder Spiele die an die Treiber angepasst sind. So oder so haben Nvidia und AMD einen großen Vorsprung was Treiber für dedizierte Grafikkarten angeht, da kann auch ein Gigant wie Intel nicht zaubern.

Ahnungsloser Passant
2022-06-17, 19:01:41
Sieht für mich wie der nächste Erfolg von Raja Koduri aus.

Der Gedanke kam mir auch...

Platos
2022-06-17, 21:49:14
Im Endeffekt verkaufen sich die Intel Karten eh nur über den Preis.

Und da muss Intel schauen, bei welchem Gegenstück sie landen und dann die Preise entsprechend so günstig machen, dass man zu Intel greift ,statt zu AMD oder NVIDIA.

Und wenn das preislich nicht machbar ist,weil sonst Verlust pro Karte,dann muss man sie halt als "Lernkarte" für die 2te Generation ansehen bei Intel.

Deswegen ja praktisch nur OEM und China, weil bei OEM die Preise nicht durchsickern und China ist sowieso ein komplett anderer Markt.
Denn günstig verscherbeln ist ja bei Intel bekannterweise nicht die Strategie, die sie wählen.


Ich frage mich da manchmal was besser wäre: Treiber die an die Spiele angepasst sind oder Spiele die an die Treiber angepasst sind. So oder so haben Nvidia und AMD einen großen Vorsprung was Treiber für dedizierte Grafikkarten angeht, da kann auch ein Gigant wie Intel nicht zaubern.

Spiele an Treiber angepasst? :freak: Sehr unrealistisch. Dann müssten ja Spieleentwickler ständig dem Treiber hinterherrennen, wenns neue gibt. Ne, das ist schon gut, so wie es ist.

In Preis/Performance scheint AMD Niveau erreicht zu sein, und 2 GB extra sind ein nettes Argument. Von daher könnte Intel mit ARC schon Fuß fassen.
Verbrauch/Performance ist noch eine klare Schwäche, aber AMD ist bei Polaris auch damit durchgekommen. Mit 75W absolut könnte man leben, denke ich.

Problematisch sind offenbar noch die Treiber. Wild schwankende Frameraten gab es auch, als Steve von GN die DG1 testete. Da finde ich es etwas enttäushend, daß das Problem ein Jahr später noch da ist. Ist bei Intel niemand da, der sowas debuggen kann? Nötig wäre es.

Ich korrigiere mal: Preis/Perfomance scheint das Niveau einer Generation erreicht zu haben, die in wenigen Monaten Alteisen ist - mit Treiberproblemen und allgemein schlechter Energieeffizienz (wie es scheint?).

Kein allzu guter Zeitpunkt für den Launch eines neuen Produktes, jetzt wo massenweise gebrauchte Karten in den Markt strömen, aber der 380er ist sowieso eher Lowest end, von daher sollte es passen..
Die erste Gen. wird Intel wohl als Lehrgeld abschreiben müssen.

Ist aber nur Launch in China, Rest ist OEM. Der Markt in China wird anders sein. Ein Schlechter Zeitpunkt ist es natürlich trotzdem. Das ganze Produkt ist Schlecht.

Vita Brevis ars Longa
2022-06-18, 10:53:12
Für ~150€ ist die GPU für mich völlig ok, da AMD und Nvidia teurer sind, und weniger Features bieten.

Rein persönlich sehe ich da keinen Grund irgendwie enttäuscht zu sein.

Und das Intel plötzlich für 150€ eine Leistung bietet, wo die Konkurrenz fast den doppelten Preis aufruft, habe ich nie erwartet. Intel liefert genau das, was man vorher grob einschätzen konnte.

Und das Arc A380 zuerst in China startet, halte ich für richtig. Der chinesische PC Markt ist riesig, weil es Gaming Konsolen dort erst viel später gab, und der PC als Gamingplattform dort sehr verbreitet ist.

Gerade im OEM Bereich sehe ich viel Potential für die neue GPU, und freue mich darüber dass es endlich wieder nach ewiger Zeit (zuletzt mit 3dfx) einen 3. Anbieter für Gaming GPUs gibt.

Jetzt noch den Treiber Support ausbauen, und dann plane ich auch eine Intel GPU bei meinem nächsten PC mit ein.

Linmoum
2022-06-18, 13:04:51
3050-Performance aufwärts hat bei der Kleinen niemand erwartet. Wie soll das auch gehen, das würden nicht einmal AMD/NV mit den Specs schaffen. Logischerweise.

Die Enttäuschung resultiert daraus, dass man

- einen ~47% größeren Chip hat,
- deutlich mehr Shader hat,
- mehr Speicher und ein größeres SI hat,
- nicht auf x4 Lanes beschränkt ist und
- der Verbrauch höher liegt.

Trotz all dieser Umstände schafft man es (oder auch nicht? Intel hat ja nichts geliefert außer MSRP vs. Straßenpreis Vergleich für eine Perf/Yuan-Aussage :rolleyes: ) wenn überhaupt mit Ach und Krach sich vor einem harten Salvage N24 in Form der 6400 zu platzieren. Dem Abfall- und Müllchip eines mobilen Dies für den Desktop. Mir ist das echt ein Rätsel, wie man da nicht enttäuscht sein kann oder dass das genau das ist, was man erwarten konnte. Sind die (eigenen?) Erwartungen wirklich im Negativbereich, dass man sich damit zufrieden gibt bei einem Giganten und - nicht nur im Vergleich zu AMD, sondern auch zu NV - Schwergewicht der Techbranche?

Ich weiß nicht einmal, wie sie das alles mit Battlemage schon fixen wollen. Von den lächerlichen Treibern mal ganz zu schweigen. Der Launch hat sich nun schon mehrfach verschoben und wurde letztendlich sogar auf China beschränkt, und das ist immer noch ein einziger Clusterfuck.

Und wenn AMD/NV mit RDNA3/Ada wirklich so liefern, wie es die Gerüchteküche bislang andeutet, dann wird das richtig bitter für Intel. Vorbei für sie, bevor es überhaupt angefangen hat.

Vita Brevis ars Longa
2022-06-18, 13:25:58
Die (RX 6400) RX 6500 XT und RTX 3050 sind deutlich teurer als Arc A380.

Und als Einstiegs GPU für ~150€ ist Arc 380A doch völlig ok.
RX 6400, RX 6500 XT, und RTX 3050, sind doch auch noch relativ neu, und werden frühestens in 1 1/2 Jahren ersetzt.

Wer richtig intensiv spielen will, kauft sowieso in einem anderen Preisbereich, und wird den Arc A380nur belächeln.

Ja, die Effizienz könnte besser sein, und Intel braucht deutlich mehr Shader als AMD.
Aber den Preis finde ich attraktiv, sehr ungewöhnlich für Intel, und im OEM Bereich, oder einfachen Laptops, sehe ich da schon viel Potential.

Jetzt noch den größeren Chip abwarten.
Und sollte der wirklich 3060ti Leistung schaffen, und etwas über 300€ kosten, wäre dass ein gutes Angebot, da die 3060ti immer noch ~500€ kostet, und damit deutlich zu teuer ist. Die wird erst die UVP erreichen, wenn der Nachfolger schon längst angekündigt wird.

Intel scheint hier über den Preis zu gehen, dass auch vernünftig ist, und Nvidia und AMD hier unter Druck setzen wird. Dann kommt da endlich einmal Bewegung in den Markt. ^^

Rabiata
2022-06-18, 16:26:30
Die Enttäuschung resultiert daraus, dass man

- einen ~47% größeren Chip hat,
- deutlich mehr Shader hat,
- mehr Speicher und ein größeres SI hat,
- nicht auf x4 Lanes beschränkt ist und
- der Verbrauch höher liegt.

Trotz all dieser Umstände schafft man es (oder auch nicht? Intel hat ja nichts geliefert außer MSRP vs. Straßenpreis Vergleich für eine Perf/Yuan-Aussage :rolleyes: ) wenn überhaupt mit Ach und Krach sich vor einem harten Salvage N24 in Form der 6400 zu platzieren. Dem Abfall- und Müllchip eines mobilen Dies für den Desktop. Mir ist das echt ein Rätsel, wie man da nicht enttäuscht sein kann oder dass das genau das ist, was man erwarten konnte.

Auch mit viel Geld läßt sich die Entwicklung halt nicht beliebig beschleunigen. Eine RX 5500 XT um 25% Speicher, SI, Rechenleistung und Preis (MSRP) beschnitten würde ähnlich da stehen. Auf die eine oder andere Art ist Intel eine Generation zurück (schwache Treiber?).
Die (RX 6400) RX 6500 XT und RTX 3050 sind deutlich teurer als Arc A380.

Und als Einstiegs GPU für ~150€ ist Arc 380A doch völlig ok.
RX 6400, RX 6500 XT, und RTX 3050, sind doch auch noch relativ neu, und werden frühestens in 1 1/2 Jahren ersetzt.

Im Vergleich zu Nvidia ist eher die GTX 1650 interessant. Da gehen die aktuellen Geizhals-Preise bei 200,-€ los. Die RTX 3050 liegt noch mal 120 € höher im Preis, ist aber auch in einer anderen Kategorie bei der Leistung.
Aber insgesamt sehe ich die A380 auch als finanziell attraktive Option, und sei es nur weil die Konkurrenz nicht ernsthaft konkurrieren will.
Die RX 6500 XT beispielsweise könnte für ihren Preis deutlich größer sein, mit 6GB, 96bit SI und vielleicht 20 statt 16 CU. Das würde schon einen Unterschied machen.

Interessant dürften die Ryzen 6000 APUs für den Desktop werden. Erste Benchmarks der Mobilversion waren schon nahe an der GTX 1650. Könnte in einem jahr so weit sein.

GerryB
2022-06-22, 10:03:33
https://www.techpowerup.com/296063/intel-arc-a380-desktop-gpu-does-worse-in-actual-gaming-than-synthetic-benchmarks

DX11-Schwäche= Drawcalllimit?

Gast
2022-06-22, 11:13:35
DX11-Schwäche= Drawcalllimit?

Drawcalllimit ist falls vorhanden auf schnellen Grafikkarten, nicht auf derart lahmen.

GerryB
2022-06-22, 12:15:06
Vllt. hatten die Reviewer auch ne passend "lahme" CPU ?

BlacKi
2022-06-22, 12:25:00
Drawcalllimit ist falls vorhanden auf schnellen Grafikkarten, nicht auf derart lahmen.
die limits sind auf kleineren karten sogar ausgeprägter, aber man sieht sie nicht, weil das gpu limit meist immer anliegt.


wenn die benches hier in 720p oder niedriger liegen, dann könnte das ein cpu limit / drawcall limit sein.


aber ich glaub ja eher nicht dran.