Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - DG3 "Battlemage" (Xe2-HPG, Arc B-Series, 2024)


Seiten : 1 [2] 3

mczak
2024-11-23, 14:07:43
Das wäre aber ein kleiner Unterschied zwischen klein und groß? Bei Alchemist war es doch 128 bit für den richtig kleinen A380 und 256 bit für den viel größeren A580/750/770.
Der Unterschied wäre ähnlich gross wie z.B. zwischen AD104 und AD106.
G31: 32 Xe2 Kerne / 256 bit / ~380mm²
G21: 20 Xe2 Kerne / 192 bit / ~250mm²
Aber ja, da hat man dann nicht wirklich was im Einsteigersegment, G21 wäre zu teuer um den da (auch abgespeckt) zu verkaufen, beide Chips wären dann MidRange. (Kein High-End macht natürlich auf jeden Fall Sinn.)
Gerüchteweise sollen die Chips ja performancemässig nicht an die genannten Nvidia-Chips rankommen, was angesichts des Grössenunterschieds schon enttäuschend wäre. Wenn man aber etwa gleich schnell ist hätte man "nur" ein Defizit bei der Flächeneffizienz von ~30-40%, was wohl etwa im Rahmen liegt den man erwarten konnte. Nicht toll aber besser als bei Alchemist.

Slipknot79
2024-11-23, 14:55:43
Can man das Teil nicht umbenennen? B580 klingt mehr nach Chipsatz. :redface:

reaperrr
2024-11-25, 00:39:15
https://www.youtube.com/watch?v=zipQWc2AzsU

Laut MLID:

- G31 hatte noch nichtmal Tape-Out, der einzige Grund warum der evtl. trotzdem noch kommen könnte ist der Aufwand, der bereits reingesteckt wurde... aber WENN er noch kommt, bestenfalls Q2/25 (und wohl auch nur ca. 4070/7800XT-Leistung).

- G21 (B580) nur 5-15% schneller als A770, also wohl etwas langsamer als 7600XT (16% schneller als A770 lt. CB).
Trotz 192bit. Und ~250mm² Fläche. In N4P.
Also quasi ne 7600-12GB, bloß viel teurer herzustellen.

DrFreaK666
2024-11-25, 02:01:27
Oh man :(

Exxtreme
2024-11-25, 02:50:20
MLIDs Quelle kann sich immer noch irren. Aber ja, das wäre schon arg schade.

dildo4u
2024-11-25, 05:28:13
Performt wie 7600XT in Raster Performance vermutlich besser in RT.
Nicht vergessen AMD und NV bringen erstmal nur High-End daher können die Karten Sinn machen vorallem wenn die 5060 wieder mit 8Gb kommt.

Die 7600XT ist relativ Neu kann sein das es lange dauert bis wir neue 300€ Karten von AMD sehen.

reaperrr
2024-11-25, 06:12:07
Performt wie 7600XT in Raster Performance vermutlich besser in RT.
Naja, seien wir mal ehrlich, RT ist in der Performance-Klasse so oder so nicht sonderlich relevant, weil schon die Raster-Leistung für moderne Spiele grenzwertig ist.


Nicht vergessen AMD und NV bringen erstmal nur High-End daher können die Karten Sinn machen vorallem wenn die 5060 wieder mit 8Gb kommt.
4 Monate Zeitfenster sind zu wenig, um mit B580 genug Geld zu machen.
Zumal der Chip, wenn die ~250mm² stimmen, ne massiv schlechtere Marge als N33 und AD106 hat, AMD und NV können einfach die 7600XT und 4060Ti-16GB übergangsweise dagegen positionieren, bis sie was besseres haben. Wenn sie denn überhaupt wollen.


Die 7600XT ist relativ Neu kann sein das es lange dauert bis wir neue 300€ Karten von AMD sehen.
Kommt drauf an, was "lange" heißt.
N44 wird spätestens im 2. Quartal erscheinen, und diesmal vermutlich auch gleich mit ner 16GB-Variante launchen.

Die 7600XT wird mMn auch nicht gleich verschwinden, sondern einfach im Preis fallen und den Bereich unterhalb von N44 abdecken, und damit dann auch die B580 vor Probleme stellen.

Die Verkaufszahlen zu den Preisen, die Intel bräuchte um sich das in Zukunft weiter anzutun, sind mit dieser Performance zu diesen Specs schlicht nicht möglich, und dazu passt halt auch, dass die Stückzahlen gering sein sollen und der Chip für Mobile gar nicht erst kommt.
Intel hängt bei allem außer RT weiterhin zwei Gens zurück, sobald Blackwell und RDNA4 draußen sind, und dann lässt sich halt kein Geld verdienen.

dildo4u
2024-11-25, 06:26:06
300€ Karten mit AI Upsampling und genug Vram gibt es bisher nicht ob AMD Konkurrenzfähig ist scheint davon abzuhängen ob die 7600XT FSR 4 kann.

AMD ist aktuell langsam in UE5 hoffe Battlemage kann es besser.

7600xt langsamer als 4060

Stalker 2

https://www.techpowerup.com/review/stalker-2-fps-performance-benchmark/5.html

Silent Hill 2

https://www.techpowerup.com/review/silent-hill-2-fps-performance-benchmark/5.html

Black Myth Wukong

https://www.techpowerup.com/review/black-myth-wukong-fps-performance-benchmark/5.html

HOT
2024-11-25, 09:13:00
https://www.youtube.com/watch?v=zipQWc2AzsU

Laut MLID:

- G31 hatte noch nichtmal Tape-Out, der einzige Grund warum der evtl. trotzdem noch kommen könnte ist der Aufwand, der bereits reingesteckt wurde... aber WENN er noch kommt, bestenfalls Q2/25 (und wohl auch nur ca. 4070/7800XT-Leistung).

- G21 (B580) nur 5-15% schneller als A770, also wohl etwas langsamer als 7600XT (16% schneller als A770 lt. CB).
Trotz 192bit. Und ~250mm² Fläche. In N4P.
Also quasi ne 7600-12GB, bloß viel teurer herzustellen.

Tape Out in Q4 25? Was für ein Schwachsinn... also das würd ich 100% mal nicht ernst nehmen, das ist ein MLID-Ausfall, der wirklich ein Ausfall ist... er spekuliert ja auch nur und seine Quelle ist offensichtlich BS.
Das heißt nicht, dass das Ding auch kommt, aber was er da hat ist Mist.

AffenJack
2024-11-25, 10:53:02
https://www.youtube.com/watch?v=zipQWc2AzsU

Laut MLID:

- G31 hatte noch nichtmal Tape-Out, der einzige Grund warum der evtl. trotzdem noch kommen könnte ist der Aufwand, der bereits reingesteckt wurde... aber WENN er noch kommt, bestenfalls Q2/25 (und wohl auch nur ca. 4070/7800XT-Leistung).

- G21 (B580) nur 5-15% schneller als A770, also wohl etwas langsamer als 7600XT (16% schneller als A770 lt. CB).
Trotz 192bit. Und ~250mm² Fläche. In N4P.
Also quasi ne 7600-12GB, bloß viel teurer herzustellen.

Kompletter Blödsinn wie immer von MLID. Deshalb schickt Intel ja auch nicht existente G31 durch die Welt :
https://x.com/GawroskiT/status/1860488687756222905?t=IiPp7OvhPf_UQu-oRWAomQ&s=19

Zeigt nur mal wieder, dass er sich Zeug zusammenspinnt, statt Quellen zu haben. Wie HOT schon schreibt könnte Intel evtl. trotzdem auf den Launch verzichten, wenn das ökonomisch keinerlei Sinn macht wegen konkurrenzfähigkeit. Aber es gibt das Ding. Und in Q2 könnte er auch gar nicht mehr kommen, wenn es noch nicht mal ein Tapeout gäbe.

Dementsprechend sind jegliche anderen Infos zu Battlemage Performance von ihm auch nicht ernst zu nehmen, wenn er nicht mal die grundlegendste Info richtig hat.

HOT
2024-11-25, 11:42:32
Bei Intel liegt er schon seit Jahren daneben, im Sommer war ARL noch 30% besser als RPL... auf einmal war das dann nicht mehr so. Dann sein ganzes Gelaber, dass Intel keine diskreten Grafikkarten mehr anbieten wird, und was ist? Sie machen das gleiche wie AMD. Dann sollte Celestial nur noch als IGP kommen und was ist? Es wird Mitte 26 auch davon GPUs geben, wie es aussieht.

ryan
2024-11-25, 16:20:12
Kompletter Blödsinn wie immer von MLID. Deshalb schickt Intel ja auch nicht existente G31 durch die Welt :
https://x.com/GawroskiT/status/1860488687756222905?t=IiPp7OvhPf_UQu-oRWAomQ&s=19

Zeigt nur mal wieder, dass er sich Zeug zusammenspinnt, statt Quellen zu haben. Wie HOT schon schreibt könnte Intel evtl. trotzdem auf den Launch verzichten, wenn das ökonomisch keinerlei Sinn macht wegen konkurrenzfähigkeit. Aber es gibt das Ding. Und in Q2 könnte er auch gar nicht mehr kommen, wenn es noch nicht mal ein Tapeout gäbe.

Dementsprechend sind jegliche anderen Infos zu Battlemage Performance von ihm auch nicht ernst zu nehmen, wenn er nicht mal die grundlegendste Info richtig hat.


Ich kenne seine Quelle glaube ich. Wenn das die ist, die ich im Kopf habe, dann ist die Quelle zuverlässig bezüglich tape out. Aber auch diese Quelle ist sich nicht ganz sicher, ob G31 noch kommt. Falls die G31 doch noch kommt, dauert das wirklich noch. Auf u.a. github gibt es noch keine Lebenszeichen. Von der G21 seit etlichen Monaten.

G21 soll 271mm² groß sein und zwischen 4060 und 4060 Ti liegen. Der launch könnte am 12. Dezember anstehen. Flächeneffizienz ist nicht so rosig. Das Fundament ist eben doch noch Alchemist, ein Alchemist mit deutlich weniger Schwächen. Ob es diese Woche noch eine Ankündigung gibt? Mal sehen.

HOT
2024-11-25, 16:52:58
Das TapeOut-Gelaber ist unhaltbarer Unsinn. G21 und G31 hatten sicherlich Q4 23 TapeOut.

ryan
2024-11-25, 16:55:48
G31 wurde erst später reingeschoben für den gecancelten G10 Chip, afaik im Frühjahr 2024. Was du sagst kann nicht sein.

DrFreaK666
2024-11-25, 17:08:05
Wie schön dass hier alle deutlich bessere Quellen haben :ugly:

HOT
2024-11-25, 18:12:08
G31 wurde erst später reingeschoben für den gecancelten G10 Chip, afaik im Frühjahr 2024. Was du sagst kann nicht sein.

Glaub ich nicht. Dass G10 nicht kommt dürfte schon 22 klar sein intern.

Wie schön dass hier alle deutlich bessere Quellen haben :ugly:

Das ist ganz offensichtlicher Unsinn.
Wenn Chips heute Tape Out hätte, wären die Celestial. Wir sehen ja auch PTL, der ist schon XE3 und der ist schon ein paar Tage unterwegs.

mocad_tom
2024-11-27, 08:43:28
Es wurde einmal alles vorgetragen, was alles in Battlemage neu/besser gemacht wurde:

https://x.com/SquashBionic/status/1861609714657677457

MSABK
2024-11-27, 09:16:26
Ich erwarte einen deutlichen Sprung nach vorne mit den neuen Chips.

robbitop
2024-11-27, 13:52:31
Dadurch dass der große Chip ggf. nicht oder viel später kommt, wird es nicht so viel Verbesserung geben (von A770 aus gesehen).

davidzo
2024-11-27, 14:14:14
Das ist ganz offensichtlicher Unsinn.
Wenn Chips heute Tape Out hätte, wären die Celestial. Wir sehen ja auch PTL, der ist schon XE3 und der ist schon ein paar Tage unterwegs.

Sehe ich auch so. PowerOn, Bringup, Debug, Boarddesign, Firmware etc. muss schon Monate bis Jahre vor der Serienproduktion passieren. Und das kann eben alles erst nach dem tapeOut passieren. In diesen Steps kann es noch ungelöste Probleme geben weshalb die Masken noch nicht in Serienproduktion sind, da man ggf. noch einen Metal Spin oder Stepping braucht.

Wenn es bisher keinen Tapeout gab, hat man keine Testchips gehabt und dementsprechend auch kein Design für die Produktion. Dann wäre BMG-G31 ein Design für 2026, nicht 25.
Wenn an dem Gerücht überhaupt etwas dran ist, gibt es nur zwei Möglichkeiten:
1. G31 ist gecancelt
2. G31 ist taped out, aber es gibt noch kein finales Produktions-stepping - die Fertigung ist also on hold. Die Partner haben dementsprechend noch keine Samples, keine Schematics und kein Referenzdesign. Wenn die Quelle diesen Zustand von "not send out by intel to partners" mit "tape out" verwechselt, dann ist das eine sehr unwissende Quelle.

dildo4u
2024-11-27, 14:33:41
B580 kostet angeblich 260$


https://videocardz.com/newz/intel-arc-b580-battlemage-limited-edition-card-listed-at-259

Raff
2024-11-27, 14:41:59
B580 kostet angeblich 260$

https://videocardz.com/newz/intel-arc-b580-battlemage-limited-edition-card-listed-at-259

Mäh, zu teuer – oder das Ding ist viel schneller, als wir denken. 199 USD wären geil, um disruptiv zu sein.

MfG
Raff

dildo4u
2024-11-27, 14:45:03
Wenn sie mit 200Watt nicht Minimum die 4060 erreichen ist massiv was schief gelaufen.
Aber alles ist möglich hab das Gefühl das man schon vor Monaten aufgehört hat für Alchemist zu optimieren damit der Launch besser wird.

Raff
2024-11-27, 14:49:46
Nur ist Alchemist halt nicht die Konkurrenz, sondern der 8-GiByte-Gammel der Mitbewerber. :ugly: Wird schon passen, aber der Preis wird einige halt wieder überlegen lassen statt Spontankäufe zu triggern.

MfG
Raff

Platos
2024-11-27, 15:46:19
Heisst es nicht, die soll 4060ti Niveau haben?

Das wäre ja nicht schlecht für 260. Die 4060Ti kostet 380 minimum (also die 8GB Version).

Also für mich hört sich das eher nach nem Kampfpreis an. Die 5060 würde ich da schlechter einschätzen. Die wird vermutlich nicht unter 299 angesetzt und wird auch nicht schneller als ne 4060Ti sein und vermutlich auch keine 16GB haben. Wenn Intel jetzt noch vor nvidia kommt, wäre das sehr gut für sie.

davidzo
2024-11-27, 16:05:18
Wenn sie mit 200Watt nicht Minimum die 4060 erreichen ist massiv was schief gelaufen.
Aber alles ist möglich hab das Gefühl das man schon vor Monaten aufgehört hat für Alchemist zu optimieren damit der Launch besser wird.

Ich rechne eher zwischen 4060 und 4060ti Niveau. Der 4060ti 8GB geht heute schon nicht selten der VRAM aus.
- B580 wird eine 1080P Karte, genau wie die 4060. Alchemist hatte starke Auslastungsprobleme in 1080P und skalierte zudem schlecht mit der Anzahl an XE Cores. Beides wird in BMG-G10 gelöst, weshalb die Verbesserungen hier mehr durchschlagen werden als in BMG-G31.
- Die Leaks sprechen von 10-15% mehr Leistung als die A770. Das wäre das untere Ende des erwartbaren bei rechnerisch 17% weniger Rohleistung aber ca. 50% IPC Verbesserungen. Im Rasterizing liegt die A770 derzeit 10% hinter der 4060 und bei RT gleichauf. Wenn die 10-15% stimmen reicht das um an der 4060 vorbei zu ziehen.
- Den Mehrwert von 12GB VRAM sollte man in 2025 nicht unterschätzen. Die Anzahl der Games die schon in 1080P mehr als 8GB brauchen wächst rapide: Hogwarts Legacy, Ratchet & Clank, Forza Motorsport, Tlou, Avatar, etc. und neu dabei eben auch Stalker2.
- Nicht alle Games sind in 1080p zu langsam für high oder Ultra settings auf einer 4060 / 7600XT. Hier gibt es durchaus Games wo der VRAM ausgeht obwohl die Rohleistung da wäre.
- Insbesondere wenn man Raytracing benutzen will steigt der Speicherbedarf auch in 1080p stark an. In neueren Spielen ist RT + medium auch häufig eine Alternative zu No-RT + high.
- RT ist auf AMD ein Checklistfeature, auf der 4060 aber auch, weil der VRAM meistens fehlt um massive Framedrops bei eingeschaltetem RT zu vermeiden.

B580 wird die bessere Karte sein für 1080p medium + RT bis 1080P Ultra im Vergleich zur 4060 und zur 7600XT.
Intel muss beim Pricing also lediglich gleichziehen mit der 4060 um eine Alternative zu sein. AMD müssen sie nicht fürchten, denn die 7600 ist zu langsam für RT und hat ebenfalls zu wenig VRAM und die 7600XT hat zwar mehr VRAM als sie braucht, schwächelt aber weiterhin bei RT. 2025 ist aber ein Jahr wo RT in der Mehrzahl der gelaunchten Spiele einzug hält und deshalb auch der Mainstream Gamer nicht mehr ohne spielen möchte.

robbitop
2024-11-27, 16:07:13
Die Frage ist, wie relevant RT bei einer Low Cost / Einstiegs GPU ist.

Exxtreme
2024-11-27, 16:07:17
Bei der 4060Ti/7600XT-Klasse würde ich kein ernsthaftes RT erwarten. Das ist ein reines Checkbox-Feature und nichts weiter. Ob man dann mit 20 fps oder 25 fps spielt, spielt dann auch nicht mehr so die Rolle.

mczak
2024-11-27, 16:21:48
Also wenn das wirklich nur 4060-Niveau wird mit einem 270mm² Chip wäre das für Intel eine Katastrophe. Da hätte man zwar vielleicht die Performance pro Einheit verbessert, aber bei der Flächeneffizienz Null Fortschritte erzielt (quasi doppelt so grosser Chip wie AD107). Preislich wären da 260 USD nicht so der Hammer, es blieben 12GB Speicher als Vorteil gegenüber der Konkurrenz - nicht zu unterschätzen aber es bleiben halt auch Nachteile (höchstwahrscheinlich viel höherer Stromverbrauch, Treiber).
Wird das eher 4060Ti Niveau wäre das aber (zumindest vorerst) ein ziemlicher Preiskracher, abgesehen davon dass man mehr Speicher bietet. Wirklich superbillige Preise kann man ja nicht erwarten, der Chip ist zu gross, und der Rest der Karte in der Fertigung sicher auch nicht billiger als bei der Konkurrenz (mehr Speicher, aufwendigere Stromversorgung/Kühlung). Mal sehen...

bbott
2024-11-27, 16:22:36
Mäh, zu teuer – oder das Ding ist viel schneller, als wir denken. 199 USD wären geil, um disruptiv zu sein.

MfG
Raff
Bei der Chip Größe ist das schon Schadensbegrenzung.

dildo4u
2024-11-27, 16:27:54
Hoffentlich ist Lumen/Nanite Performance gefixt 4060 TI ist sehr hoch gegriffen.

https://i.ibb.co/ZxpSkzz/Screenshot-2024-11-27-162523.png (https://ibb.co/BB5GS22)

https://www.techspot.com/review/2926-stalker-2-benchmark/

davidzo
2024-11-27, 16:54:43
Bei der 4060Ti/7600XT-Klasse würde ich kein ernsthaftes RT erwarten. Das ist ein reines Checkbox-Feature und nichts weiter. Ob man dann mit 20 fps oder 25 fps spielt, spielt dann auch nicht mehr so die Rolle.

Das stimmt so absolut gesagt einfach nicht. Jedes Spiel ist da individuell, genau wie man nicht absolut sagen kann das 8GB VRAM für 1080P reichen oder dass man mehr als 12Gb für 4K braucht.

Selbst mit der RTX2060 kann man RT einschalten, nur praktisch nur noch in 2 Spielen (Guardians of the Galaxy, Dying Light 2). Wiederrum ist die 2060 in den meisten modernen Spielen auch bereits ohne RT zu langsam.

Die 4060 schafft immerhin rund die Hälfte der Spiele im aktuellen Computerbase-Index mit mehr als 40 1% FPS abzubilden: Cyberpunk, F1 '23, Forza, Ratchet & Clank.
Ein Teil der Spiele bei denen es nicht reicht leidet definitiv schon unter VRAM Mangel.

Viele Spiele kann man selbst auf der 4060 noch mit RT lauffähig machen indem man einen Teil der anderen Grafiksettings herunterdreht von Ultra oder Very High auf nur High, Medium oder gar DLSS einschaltet. Klar ist das nicht immer die beste visuellee Option gerade bei 1080p, aber viele mainstream Gamer wollen zumindest die Option RT haben. Nicht umsonst spielt RT bei der Kaufentshcheidung im mainstream weiter große eine Rolle.

B580 wird aber praktisch die bessere Einsteigerkarte für RT sein, nicht zuletzt durch den größeren VRAM. Die A770 liegt im CB Parkur ohne RT noch 8% hinter der 4060, mit RT schafft sie den Gleichstand, bzw. liegt bei den Perzentil FPS sogar leicht vorn. Ich denke dieser Effekt wird sich mit Battlemage vergrößern.

Hoffentlich ist Lumen/Nanite Performance gefixt 4060 TI ist sehr hoch gegriffen.

https://i.ibb.co/ZxpSkzz/Screenshot-2024-11-27-162523.png (https://ibb.co/BB5GS22)

https://www.techspot.com/review/2926-stalker-2-benchmark/

Schau nochmal genau hin. Ich sprach von zwischen 4060 und 4060ti 8GB.

Die 4060ti 16GB ist eine passable Karte, aber in einer ganz anderen Preisliga als die normale 4060ti.
Für 450€ kann man auch gleich zur 50€ günstigeren aber gleichschnellen 7700XT oder zur deutlich schnelleren 7800XT greifen kann.

Raff
2024-11-27, 17:04:30
Rasterizing: https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/
Raytracing: https://www.pcgameshardware.de/Raytracing-Hardware-255905/Tests/Gaming-Grafikkarten-Vergleich-Benchmark-Preis-Leistung-1411231/2/

In beiden Fällen vor RX 7600 und RTX 4060. Wenn die B580 tatsächlich schneller ist (bis auf Ausnahmen zu bezweifeln), sind 4060 Ti und RX 7700 XT zumindest in Riechdistanz.

MfG
Raff

Daredevil
2024-11-27, 17:11:45
Die Frage ist, wie relevant RT bei einer Low Cost / Einstiegs GPU ist.
Für Gaming sicher weniger, für die "kleine Blender Workstation" von HP vielleicht schon.
Apple schnallt RT ja auch nicht in den M3/M4 um damit ein einziges Spiel spielen zu können in 2025 oder Benchmarks damit zu fahren, sondern damit auch irgendwie zu arbeiten oder Workloads zu beschleunigen. Am Ende kommt es immer auf das Szenario an, in FullHD geht das doch ab und an fit, wenn man keinen anderen Monitor hat.

davidzo
2024-11-27, 17:17:01
Rasterizing: https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/
Raytracing: https://www.pcgameshardware.de/Raytracing-Hardware-255905/Tests/Gaming-Grafikkarten-Vergleich-Benchmark-Preis-Leistung-1411231/2/

In beiden Fällen vor RX 7600 und RTX 4060. Wenn die B580 tatsächlich schneller ist (bis auf Ausnahmen zu bezweifeln), sind 4060 Ti und RX 7700 XT zumindest in Riechdistanz.

MfG
Raff
Danke für den PCGH Index, der ist aussagekräftiger als der von CB.

Aber wie kommst du darauf dass die B580 langsamer werden könnte als die A770?
32CU * 2,1Ghz sind nur 17% mehr Rohleistung als 20CU * 2,85Ghz. An Bandbreite fehlen auch nur 10% und die A770 war auch selten Bandbreitenlimitiert.

Und die Arc 140V schlägt die Alchemist basierte Arc mit gleicher Kernanzahl um 32% laut THG und das trotz rund 200mhz (9%) Takt-Defizit: https://www.tomshardware.com/pc-components/gpus/we-benchmarked-intels-lunar-lake-gpu-with-core-ultra-9-drivers-still-holding-back-arc-graphics-140v-performance

Also ich halte 10-15% schneller als die A770 für relativ realistisch, aber das ist auch ein bisschen abhängig von den realen Taktraten, also ob die wirklich mit 2,85Ghz base-clock kommt.

mczak
2024-11-27, 17:38:22
Und die Arc 140V schlägt die Alchemist basierte Arc mit gleicher Kernanzahl um 32% laut PCGH und das trotz rund 200mhz (9%) Takt-Defizit: https://www.tomshardware.com/pc-components/gpus/we-benchmarked-intels-lunar-lake-gpu-with-core-ultra-9-drivers-still-holding-back-arc-graphics-140v-performance
Die Lunar Lake GPU hat aber auch 14% mehr Speicherbandbreite und den doppelten L2 gegenüber der Meteor Lake GPU - beides dürfte schon helfen. (Keine Ahnung wie's bei den tatsächlich erreichten Taktraten aussieht, ist ja gerade bei Notebooks so eine Sache, könnte aber schon sein dass Lunar Lake da etwas tiefer taktet.)


Also ich halte 10-15% schneller als die A770 für relativ realistisch, aber das ist auch ein bisschen abhängig von den realen Taktraten, also ob die wirklich mit 2,85Ghz base-clock kommt.
Ich finde ja auch dass der schneller sein sollte, sonst hat man einfach keine Fortschritte pro Transistor erzielt (sind ja angeblich 270mm² in N4P gegen 406mm² in N6). Möglich ist das sicher, vermutlich hat man auch ziemlich viele Transistoren in höheren Takt investiert.

davidzo
2024-11-27, 19:40:30
Ja, die Die Größe tut natürlich ziemlich weh. Aber immerhin ist es nur 4nm, also kein absoluter cutting edge Node wie bei Lunarlake. 4nm sollte nicht teurer sein als AMDs 5nm oder nvidias 4N das es dieselbe Prozessfamilie bei TSMC ist. Es ist trotzdem näher an AD104 als AD106 und fast doppelt so groß wie der AD107 in der 4060.

Das mit den niedrigeren Taktraten der 140V ist von Chips and Cheese bestätigt: https://chipsandcheese.com/p/lunar-lakes-igpu-debut-of-intels

Der hat zwar keine Taktraten dokumentiert, aber in gleichem Maße höhere Latenzen bei allen Cachestufen gemessen und begründet das mit dem 200mhz niedrigeren Takt.

Der Artikel ist besonders Interessant zum Thema RT, was bei einer IGP natürlich keine Rolle spielt und deswegen auch von bisher niemandem getestet wurde.
Battlemage legt hier nochmal einen oben drauf auf die solide RT Hardware von Alchemist. 50% mehr Box Test / Cycle und 2x Triangle Test/Cycle wäre schon eine Hausnummer.

Schon die A770 skaliert sowohl bei PCGH um Index als auch bei Computerbase besser mit RT vs Rasterizing als die 4060 das tut. Ein Gleichstand bei Rasterizing wird zu einem 10% Vorsprung für die A770 gegenüber der 4060. Diese Raytracing-Stärke könnte mit BMG noch größer werden.

Die 4060 mag keine karte für entry level Raytracing sein, das sagt aber noch nichts über Battlemage aus.

robbitop
2024-11-27, 19:45:36
Ein Teil der guten RT Performance kann aber auch von der notorisch schlechten Auslastung von Alchemist kommen.
Von der high level uArch ist bei Ada eigentlich schon etwas mehr verbaut (wobei einige der HW Blöcke auch erst richtig was zu bringen scheinen wenn man für diese optimiert - so wie es in CP77 der Fall ist).

mczak
2024-11-27, 20:07:02
Schon die A770 skaliert sowohl bei PCGH um Index als auch bei Computerbase besser mit RT vs Rasterizing als die 4060 das tut. Ein Gleichstand bei Rasterizing wird zu einem 10% Vorsprung für die A770 gegenüber der 4060.

Das liegt wohl eher am Speichermangel der 4060 als an effektiv besserer RT-Performance der A770. Gibt natürlich keine 4060 mit 16GB zum Vergleich, aber die 4060Ti profitiert erheblich von 16GB (im pgch Vergleich jedenfalls). Zudem liegt die A750 mit 8GB massiv zurück (viel stärker als bei Rasterizer-Performance). (Bei Full HD liegt die A770 auch noch knapp hinter der 4060, auch bei RT.) Eine wirkliche Stärke im Vergleich zu Nvidia scheint mir das also nicht unbedingt zu sein, aber klar die RT-Performance war ok (und natürlich viel besser als bei AMD).


Diese Raytracing-Stärke könnte mit BMG noch größer werden.

Wobei in der Praxis bei chipsandcheese jetzt da auch nicht gerade der grosse Sprung mit der neuen Generation zu sehen ist - die Zunahme in den RT-Benches liegt im Rahmen der allgemeinen Performance-Zunahme (aber könnte natürlich sein dass ohne Verbesserungen bei RT da im Verhältnis ein Rückschritt zu sehen wäre, man hat ja offenbar tatsächlich tieferen Takt).

ryan
2024-11-27, 20:54:36
Danke für den PCGH Index, der ist aussagekräftiger als der von CB.

Aber wie kommst du darauf dass die B580 langsamer werden könnte als die A770?
32CU * 2,1Ghz sind nur 17% mehr Rohleistung als 20CU * 2,85Ghz. An Bandbreite fehlen auch nur 10% und die A770 war auch selten Bandbreitenlimitiert.



Es sind eher 2.3-2.4 Ghz bei Alchemist. Und ob die 2.8 Ghz bei der B580 wirklich real anliegen, bleibt abzuwarten. Ich habe gehört B580 +10% über RTX 4060 in Full HD.

davidzo
2024-11-27, 21:36:51
Das liegt wohl eher am Speichermangel der 4060 als an effektiv besserer RT-Performance der A770.

Der Grund ist in diesem Fall egal, da die 4060 antrete muss so wie sie ist. Die A750 verliert bei RT mehr, das ist richtig, aber das wird bei den 12GB VRAM der B580 nicht mehr so sein.

Die 4060ti 16GB ist immerhin eine 450€ Karte. Wenn nvidia die aufbieten muss um mit B580 bei 260$ zu konkurrieren wäre das ein win für Intel.

ryan
2024-11-27, 21:57:14
https://youtu.be/NTkHJG_Lfuk?t=482

Nächstes Architecture Video sollte mit Battlemage sein.

vinacis_vivids
2024-11-27, 23:17:00
B580 12GB konkurriert wohl mit RTX4060 8GB bei 250-300 USD.
Bei guter Leistung kann Intel sicherlich Marktanteile gewinnen, zumal 12GB deutlich besser ist als 8GB zum gleichen Preis.

dildo4u
2024-11-28, 05:49:47
Lunar Lake vs AMD

https://www.tomshardware.com/pc-components/gpus/intel-takes-down-amd-in-our-integrated-graphics-battle-royale

Fand das Interessant hoffentlich auf die B580 übertragbar.

Lunar Lake ok in God of War, A770 Katastrophe.

https://i.ibb.co/pQ85tMT/Screenshot-2024-11-28-054604.png (https://ibb.co/3vqQDjb)

https://i.ibb.co/SP4wjmV/Med-1080p-p.webp (https://ibb.co/qd3YSgm)

https://www.techspot.com/review/2897-god-of-war-ragnarok-benchmark/

RBG
2024-11-28, 08:22:42
Inwieweit spielt denn eurer Meinung nach sowas wie Framegen eine Rolle für den B580 gegen 4060, 7600 und deren Nachfolger?

robbitop
2024-11-28, 08:28:53
Meine Vermutung ist, dass Nvidia den Flaschenhals beim Optical Flow Accelerator aufbohrt. Der scheint für die Skalierung von DLSS 3 FG hin und wieder zu limitieren.

Battlemage wird wohl kein Framegeneration bekommen. Intel hatte statt an Frameinterpolation an Frameextrapolation gearbeitet und ersterem auch in einem Interview IIRC eine Absage erteilt. Leider scheint die Frameextrapolation in eine Sackgasse gelaufen zu sein. Man hat lange nichts mehr davon gehört und IIRC gab es aucch mal Gerüchte, dass es tot ist. Ggf ein anderes cost cutting Opfer.

Aber: auf Battlemage läuft auch FSR 3 Frame Generation, welches ja immer besser geworden sein soll (aber angeblich auf Radeons am saubersten läuft). Aber leider ohne Lag Reduktionsmechanismus. Weiterhin gibt es noch die Frame Generation von lossless scaling.
Ein potenzieller Vorteil von Battlemage ggü einer Radeon ist allerdings XeSS mit XMX. Das sieht besser aus als die dp4a Variante und ist auch schneller.

IMO ist der größte Nachteil, dass die größte Variante entweder nicht oder viel später kommt. 7600er/4060er Territorium ist für eine 2024 Launch Karte einfach sehr wenig - insbesondere weil ja dessen Nachfolger kommen.

Wenn AMD FSR4 basierend auf NN bringt und deutlich mehr RT mit N44/48 sind die wenigen Vorteile die Intel bringt potenziell weg.

Radeonator
2024-11-28, 09:55:02
Interessant :

https://www.youtube.com/shorts/ALh6lQl6CnQ

vinacis_vivids
2024-11-28, 09:58:33
Inwieweit spielt denn eurer Meinung nach sowas wie Framegen eine Rolle für den B580 gegen 4060, 7600 und deren Nachfolger?

Spielt jetzt schon eine größere Rolle als 4K Ultra native.

https://i.ibb.co/YN34zgK/Screenshot-2024-11-21-172839.png

Redaktionen, die keine FG Benches anbieten, werden Leser und Clicks verlieren.

E39Driver
2024-11-28, 10:59:20
B580 12GB konkurriert wohl mit RTX4060 8GB bei 250-300 USD.
Bei guter Leistung kann Intel sicherlich Marktanteile gewinnen, zumal 12GB deutlich besser ist als 8GB zum gleichen Preis.
Sehe ich nicht so. Bleibt man in diesem Preisbereich bleibt es auch bei 0% bis 1% Marktanteil für Intel. Auch AMD liegt preislich 10% unter den Geforce-Karten bietet mehr Speicher und zudem einen stabilen Treiber. Und trotzdem krebst man bei 10% Marktanteil rum.

Wie will es da Intel mit den selben Argumenten schaffen, wenn man darauf noch den Makel der inkonsistenten Treiber hat, das viele neue Spiele nicht Day-1 laufen und ältere Titel + Indie-Titel ebenfalls oftmals Probleme machen oder gar nicht laufen. Einzige Möglichkeit diesen Markt damit zu öffnen, wären sehr sehr aggressive Kampfpreise. 120€ für eine B580 würden viele User wohl über diese Nachteile hinwegsehen lassen. Braucht man aber eine entsprechende Portokasse für, um sowas durchzuhalten. Also kann man es aus Intelsicht eigentlich auch gleich sein lassen. und danach sieht es auch aus. Man veröffentlicht jetzt noch als Alibi den kleineren Chip, der große ist eh schon eingestellt. So hat man seine Investorenzusagen eingehalten. Und kann dann 3 Monate späte bei 0,x % Marktanteil sagen es wird eingestellt und geht halbwegs gesichtswahrend aus dem Thema raus

vinacis_vivids
2024-11-28, 11:09:14
Leistung wird sich durchsetzen bei gleichem Preis, das gilt auch für Intel. Intel hatte viele Treiberprobleme bei den dGPUs, aber 1-5% Marktanteil ist besser als 0%.
Ein Dritter Wettbewerber ist einfach wichtig, zumal das Druck auf den Markt ausübt und gut für die Kunden ist.

Ende 2024 denke ich, dass das Blatt sich jetzt schon Richtung AMD wendet bei den dGPUs.

Mit den B580 12GB kurz vor Weihnachten will Intel sicherlich noch am Jahresende bissel Kasse machen, die ja sehr klamm geworden sind.

Wenn das Zeugs erstmal produziert wird, kann Intel wieder am Treiber schleifen, da gibs wieder genug Arbeit.

aceCrasher
2024-11-28, 11:17:54
Ende 2024 denke ich, dass das Blatt sich jetzt schon Richtung AMD wendet bei den dGPUs.
Inwiefern? Nvidias Marktanteil war nie größer und der Feature-Unterschied war auch nie größer. Als historischer AMD-Loyalist fand ich AMD/ATi Grafikkarten noch nie unattraktiver als heute.

E39Driver
2024-11-28, 11:22:17
Kasse macht Intel mit dem Ding ganz sicherlich nicht. Egal ob man es jetzt unattraktiv für 260$ oder aber zu Kampfpreisen mit großen Stückzahlen verkaufen würde. Der Chip ist doppelt so groß wie der Wettbewerber und ist in teurer externer TSMC-Fertigung gefertigt, während man die Intel eigenen Fabs mit hohen Fixkosten nicht ausgelastet bekommt.

Der doppelt so hohe Stromverbrauch ist für die Käufer in allen anderen Ländern außer Deutschland zwar egal. Nicht aber für die Hersteller die auch entsprechend teurere Platinen, Spannungswandler und Kühllösungen einkalkulieren müssen.

Ich bleibe dabei. Mit diesem Chip lässt sich kein Gewinn machen und auch keine Marktanteile erobern. Je weniger Stückzahlen Intel davon verkauft, desto geringer der Verlust. Und nach einigen Monaten wird man es eh eindampfen. Deshalb bei technischen Interesse am besten direkt bei Launch eine Limited-Edition sichern... die verfügbaren Stückzahlen werden nicht hoch sein

reaperrr
2024-11-28, 14:46:46
Je weniger Stückzahlen Intel davon verkauft, desto geringer der Verlust.
Jup. Intel hat wahrscheinlich einfach Verträge mit TSMC mit festgelegten Wafer-Mindestabnahme-Mengen für N4(P), und G21 in begrenzter Stückzahl zu produzieren macht deshalb weniger Miese, als die Vertrags-Strafe für Nicht-Einhaltung der Mindestabnahme.
Mehr aber halt auch nicht.

Der_Korken
2024-11-28, 15:48:30
Hauen bei kleinen Stückzahlen nicht auch die Entwicklungskosten und Maskenfertigung ziemlich rein?

konkretor
2024-11-28, 20:39:52
Videocardz macht mal wieder die Pressestelle von Intel ;D


https://videocardz.com/newz/exclusive-intel-arc-battlemage-to-launch-december-12th

Platos
2024-11-28, 20:43:11
Ja gut, wenn Intel mal als erster drann ist, dann könnte das wirklich mal etwas Marktanteile bringen, wenn sie für 250$ und 12GB was ordentliches hinkriegen (klar besser, als alles momentan in dieser Preisklasse verfügbare). Also von nvidia versteht sich. Von AMD abluchsen bringt uns Kunden gar nichts.

vinacis_vivids
2024-11-28, 20:52:17
Hauen bei kleinen Stückzahlen nicht auch die Entwicklungskosten und Maskenfertigung ziemlich rein?

Intel muss an TSMC vertraglich bezahlen bei den 3nm CPUs und nun bei den 4nm DGPUs.

Die Marge wird gering sein oder gar mit Verlust verkauft werden allein um die Marke zu halten.

basix
2024-11-29, 10:44:29
Best Case Szenario für Intel:
- B580 ~4060 Ti Performance
- B780 ~4070S Performance

Selbst wenn die Chips dann etwas grösser als Ada sind, wäre das ziemlich OK. Verbrauch sollte in etwa ähnlich sein. Vor allem toll wenn z.B. die B580 ~270 Euro oder so kosten sollte.

dildo4u
2024-11-29, 10:50:08
Hängt davon ab ob der Treiber was taugt die A770 hat heute Probleme seine 300€ zu rechtfertigen.
Bei 270€ für b580 erwarte ich klar 4060 Level.

https://www.techpowerup.com/review/sparkle-arc-a770-roc/31.html

Raff
2024-11-29, 11:21:56
Xe 2 (Battlemage) vs. Xe (Alchemist): Benchmarks und Vorschau auf Intel Arc B580 (https://www.pcgameshardware.de/Intel-Arc-Grafikkarte-267650/Tests/B580-Preview-Xe-2-GPU-vs-Xe-1-Benchmarks-1459775/)

Pro-Takt-Benchmarks mit 8 Xe-Cores @ 2.050 MHz.

MfG
Raff

basix
2024-11-29, 11:32:43
Danke @raff, sowas hatte ich heute schon gesucht :D

Raff
2024-11-29, 11:37:36
Gern. :up: Ist leider nur ein kleiner Happen, in mehrlei Hinsicht, aber zum Vorglühen perfekt. :D

Jetzt auch als Bewegtbild:

mQSgvYCc8_0

MfG
Raff

mczak
2024-11-29, 16:28:47
Xe 2 (Battlemage) vs. Xe (Alchemist): Benchmarks und Vorschau auf Intel Arc B580 (https://www.pcgameshardware.de/Intel-Arc-Grafikkarte-267650/Tests/B580-Preview-Xe-2-GPU-vs-Xe-1-Benchmarks-1459775/)

Pro-Takt-Benchmarks mit 8 Xe-Cores @ 2.050 MHz.

Interessant. Die A380 hat ja einen ~40% Bandbreitenvorteil (abgesehen davon dass die Speicherbandbreite bei Lunar Lake mit der CPU geshart ist), das dürften auch die 8 MB statt 4MB L2 von Lunar Lake nicht wettmachen. Es gibt also keinen Zweifel daran dass Battlemage tatsächlich teilweise erheblich schneller pro Kern ist als Alchemist. Schaut halt bloss so aus (wenn denn die ~270mm² von G31 stimmen) dass man sich das wie auch den zusätzlichen Takt auch mit mehr Transistoren pro Kern erkauft hat.
Im Vergleich mit der A770 (die ja etwas mehr Bandbreite hat als B580 und nominell bei der Leistung (Kerne * Takt) vorne liegt gegenüber der B580) muss man zudem noch berücksichtigen dass man immer etwas besser skaliert mit mehr Takt als mehr Einheiten. Der Effekt sollte nicht so ausgeprägt sein aber falls es da noch irgendwelche Flaschenhälse gibt könnte der spürbar ausfallen. Gut möglich also dass am Ende je nach Spiel B580 irgendwo von knapp A770-Niveau bis deutlich schneller rangiert.

raffa
2024-11-29, 17:17:39
Sieht doch ganz gut aus, und die Karte wirkt auch vernünftig gespeckt. 12GB, 192Bit, 456GB/s
Für 249$ eine feine Option, falls die dann halt auch gscheid läuft. Aber dazu gibts dann bestimmt auch ein Video : )

ryan
2024-11-29, 19:47:05
Interessant. Die A380 hat ja einen ~40% Bandbreitenvorteil (abgesehen davon dass die Speicherbandbreite bei Lunar Lake mit der CPU geshart ist), das dürften auch die 8 MB statt 4MB L2 von Lunar Lake nicht wettmachen. Es gibt also keinen Zweifel daran dass Battlemage tatsächlich teilweise erheblich schneller pro Kern ist als Alchemist.


Die A380 liegt auch deutlich vor der Alchemist iGPU in Meteor Lake. Im THG Vergleich lag Xe2 bei der FPS/TFLOPS 50% vor Xe1 LPG. Ja Lunar Lake hat 14% mehr RAM Bandbreite als Meteor Lake, was +10% fps bringen könnte (wenn überhaupt). Allerdings kann auch die Speichercontroller Effizienz in Battlemage gestiegen sein. Der Alchemist Speichercontroller war ein Schwachpunkt mit. Das wird wirklich je nach Spiel unterschiedlich ausfallen. In vielen UE5 Spielen hat Alchemist richtig Probleme gehabt.


We crunched the numbers, and we end up with Lunar Lake offering 10.33 FPS/TFLOPS across our test suite, Strix Point gives 9.05 FPS/TFLOPS, and Meteor Lake only offers 6.90 FPS/TFLOPS. That means, for our independent testing, Intel delivered exactly 50 percent higher performance per teraflops compared to its prior generation GPU.
https://www.tomshardware.com/pc-components/gpus/intel-takes-down-amd-in-our-integrated-graphics-battle-royale

konkretor
2024-11-30, 10:27:55
Gunnir hat auch wieder eine raus


https://videocardz.com/newz/gunnir-arc-battlemage-gpus-to-be-revealed-on-december-4th

ryan
2024-11-30, 14:43:10
Asrock Steel Legend B580:


https://youtu.be/DJZ7E0MprBg?t=4420

ryan
2024-11-30, 15:26:12
Intel bestätigt den 3. Dezember

https://x.com/IntelGaming/status/1862859173207113798

konkretor
2024-11-30, 15:34:38
Asrock Steel Legend B580:

https://youtu.be/DJZ7E0MprBg?t=4420



In dem Fall sieht es so aus als ob die klassiche Presse außen vor ist und ein YT mit knapp 15 K, 2 Wochen vorher die Karte schon bekommt.





Zumindest wissen wir jetzt die Karte gibt es wirklich! :cool:

ryan
2024-11-30, 15:58:19
Das wissen wir nicht. Die dürfen das nicht zeigen bis zum 3. Dezember gehe ich von aus.

ryan
2024-11-30, 16:21:48
Die kleinere B570 hat offenbar 10GB Speicher.


Carte Graphique ASRock Intel Arc B580 Steel Legend OC 12Go
Carte Graphique ASRock Intel Arc B570 Challenger OC 10Go

https://www.1fotrade.com/p211476-carte-graphique-asrock-intel-arc-b570-challenger-oc-10go/
https://www.1fotrade.com/p211414-carte-graphique-asrock-intel-arc-b580-steel-legend-oc-12go/

basix
2024-11-30, 16:38:32
Immer noch besser als 8GB ;)

Hier der Link aufs Datenblatt der Asrock B580 (Screenshots im Anhang):
https://www.1fotrade.com/ressources/site/document/product/fiche-technique-pour-asrock-intel-arc-b580-sl-oc-12go_12922.pdf

320 XMX-Engines sprechen für 20 Xe-Cores.

ryan
2024-11-30, 16:57:37
PCI Express 4.0 x8 steht im Datenblatt. Das Gerücht ist ja, dass es zum launch nur 4.0 gibt, weil sie einen Bug gefunden haben. PCIe 5.0 soll/könnte später mit einem Firmware Update freigeschaltet werden.

mczak
2024-11-30, 17:28:28
PCI Express 4.0 x8 steht im Datenblatt. Das Gerücht ist ja, dass es zum launch nur 4.0 gibt, weil sie einen Bug gefunden haben. PCIe 5.0 soll/könnte später mit einem Firmware Update freigeschaltet werden.
Eigentlich schade, wäre immerhin mal etwas das nvidia und amd noch nicht bieten (ich gehe mal davon aus dass Navi 4x sowie Blackwell durchgehend auch pcie 5.0 unterstützen), auch wenn der Vorteil wohl eher theoretischer Natur wäre, hoffentlich wird das wirklich was mit dem Firmware-Fix...

Exxtreme
2024-11-30, 17:57:13
PCIe 4 8x wäre blöd für Aufrüster wenn deren Board nur PCIe 3 kann. Denn ein halbierter PCIe 3-Anschluss macht sich doch bemerkbar.

Shink
2024-11-30, 20:12:00
PCIe 4 8x wäre blöd für Aufrüster wenn deren Board nur PCIe 3 kann. Denn ein halbierter PCIe 3-Anschluss macht sich doch bemerkbar.
Naja, von Alchemist abgesehen ist die billigste (aktuelle) Karte mit 16x die RX7700. Alle anderen haben auch 8x. Das ist einfach günstiger zu realisieren.

Das Gerücht ist ja, dass es zum launch nur 4.0 gibt, weil sie einen Bug gefunden haben.
Das würde sehr nach Intel klingen.

Die kleinere B570 hat offenbar 10GB Speicher.
Etwas unerwartet. Naja, besser als 8GiB ist es tatsächlich.

AffenJack
2024-11-30, 20:23:20
Etwas unerwartet. Naja, besser als 8GiB ist es tatsächlich.

Macht einfach Sinn, speziell im unteren Preisbereich. Wenn B580 wirklich für 250$ kommt, dann ist da nicht mehr viel Luft nach unten, wenn man noch was verdienen will. 2Gb weniger könnten da durchaus einiges ausmachen, damit B570 noch halbwegs attraktiv ist vom Preis. In der Preisklasse braucht man auch keine 12GB, auch N44 dürfte mit 8 Gb kommen, womit man mit 10 GB schon überlegen ist.

konkretor
2024-11-30, 20:41:06
570 specs


https://videocardz.com/newz/intel-arc-b570-specs-leaked-18-xe2-cores-10gb-memory-and-pcie-4-0x8


Hat nur 10 GB Ram und das Speicherinterface ist auf 160 gestutzt worden.

Soll wohl auch am 12 vorgestellt werden.

dildo4u
2024-12-01, 06:04:15
PCIe 4 8x wäre blöd für Aufrüster wenn deren Board nur PCIe 3 kann. Denn ein halbierter PCIe 3-Anschluss macht sich doch bemerkbar.
Ist das nicht nur relevant wenn die Karten zu wenig Vram haben?
Die 4060TI 16 GB scheint OK mit PCI-e 2.0.

https://youtu.be/ecvuRvR8Uls?si=2cF_gqGhRup5CuwH&t=924

DrFreaK666
2024-12-01, 09:16:01
Du solltest eigentlich wissen, wie man hier YT-Videos einbettet

dildo4u
2024-12-01, 09:18:14
Ich wollte ein direkten Timecode verlinken geht das mit einbetten?


Immer wieder absurd wie viel Plastik und Metall für Low End GPU verschwendet werden.

https://videocardz.com/newz/reviewer-shows-asrock-arc-b580-steel-legend-in-first-hands-on-look-at-intel-battlemage-gpu

DrFreaK666
2024-12-01, 11:46:09
Gute Frage. Hab das selbst noch nicht hinbekommen

Exxtreme
2024-12-01, 14:14:24
Ist das nicht nur relevant wenn die Karten zu wenig Vram haben?
Die 4060TI 16 GB scheint OK mit PCI-e 2.0.

https://youtu.be/ecvuRvR8Uls?si=2cF_gqGhRup5CuwH&t=924

Ne, selbst eine RTX 4090 wird durch PCIe 2x16 = PCIe 3x8 ausgebremst:
https://www.techpowerup.com/review/nvidia-geforce-rtx-4090-pci-express-scaling/4.html

davidzo
2024-12-01, 16:35:17
Ne, selbst eine RTX 4090 wird durch PCIe 2x16 = PCIe 3x8 ausgebremst:
https://www.techpowerup.com/review/nvidia-geforce-rtx-4090-pci-express-scaling/4.html

Was heißt hier "selbst"?

Natürlich wird eine fünfmal so große GPU leichter durch die Anbindung zur CPU ausgebremst als ein entry level Chip.

Das wäre ja wie wenn ich behaupte eine 4060 und ein 9800x3d wären eine ausgewogene Kombi weil nur letzterer es schafft eine 4090 ins GPUlimit laufen zu lassen.

Kontrollfreak
2024-12-01, 17:39:40
Die 4090 hat aber 24 GB. So viel zur Frage, ob sich die PCIe-Anbindung nur bei zu wenig VRAM auswirkt.

davidzo
2024-12-01, 18:27:15
Die 4090 hat aber 24 GB. So viel zur Frage, ob sich die PCIe-Anbindung nur bei zu wenig VRAM auswirkt.

Die VRAM Frage ist aber eine simple Ja/Nein Fragestellung. Noch mehr VRAM als "genug" bringt dann nicht mehr, sondern lässt nur andere Auflösung/Settings zu bevor der Speicher erneut überläuft.

Für 1080p sind die 24GB VRAM einer Titan RTX völlig sinnbefreit, da die 11 GB einer 2080ti bereits ausreichen, zumindest in den Spielen die es damals gab bzw. wofür beide Karten schnell genug sind.

Einen Zusammenhang zwischen VRAM-Menge und PCIe Bandbreite gibt es nur in VRAM-limitierten Szenarios, wo der Grafiktreiber also ständig Texturen aus dem VRAM evicten und andere nachladen muss.

Die normale Aufgabe des PCIeBus, also wenn der VRAM ausreicht, ist eben nicht Texturen rüber zu schieben sondern die Verbindung zwischen GPU und CPU/Hauptspeicher herzustellen welche die Szene des nächsten zu rendernden Frames bereit hält. Ab einem bestimmten, sehr hohen Level, kann es hierbei durchaus zu Bandbreiten- und Latenzeinschränkungen zwischen CPU und GPU oder gar einem CPUlimit kommen.

Da die fünfmal langsamere RTX4060 das Niveau einer 4090 eh nie erreicht, ist der Effekt der CPU-Anbindung eher vernachlässigbar im Vergleich zum sehr gut messbaren Effekt des Texturnachladens bei den zu kleinen VRAM.

Auch wenn eine Engine ein suboptimales Textur-streaming betreibt, kann es bei der 4090 zu Einschränkungen kommen die eher mit suboptimaler Software als mit PCIe-Bandbreite und VRAM-Menge zutun haben.
Sagen wir die Engine lädt an einer bestimmten Stelle Texturen nach. Der Nachladetask nimmt die CPU so stark in Anspruch dass sie einen Moment lang nur noch 150FPS an die GPU liefern kann.
Auf einer 4070 die eh nur 130FPS schafft spüre ich nichts. Auf einer 4090 die eigentlich 300FPS schaffen sollte sehe ich einen starken Einbruch. Beide haben denselben PCIE4x16 PCIeBus und die 4070 aber nur 12GB VRAM.
Selbst wenn das Texturstreaming den 24GB VRAM der 4090 berücksichtigt und erst vollständig füllt (was die meisten Engines leider nicht machen wenn man sich VRAM belegungsgraphen anschaut), würde das lediglich die Nachlagehäufigkeit gegenüber der 4070 halbieren. Leider gibt es nicht wenige Engines die Texturstreaming suboptimal umsetzen.

Exxtreme
2024-12-01, 18:42:21
Was heißt hier "selbst"?


Es hält sich offenbar hartnäckig das Gerücht, dass wenn eine Grafikkarte viel VRAM hat dann ist die PCIe-Geschwindigkeit nicht so wichtig. Und das stimmt nichteinmal ansatzweise. Genug PCIe-Geschwindigkeit braucht man immer.

robbitop
2024-12-01, 19:52:02
Wenn der VRAM alle ist hilft ein schneller PCIe kaum noch weil man dann eine Größenordnung an Bandbreite ggü VRAM verliert. PCIe Bandbreite braucht man heute aufgrund der immer komplexeren Geometrie. Sieht man sehr gut bei eGPUs dass das ein enormer Flaschenhals ist und zB bei niedrigerer Sichtweite in Spielen (weniger Geometrie damit pro Frame) die fps höher sind. 8x PCIe sollte aber noch okay sein. Insbesondere mit 4.0. Aber wahrscheinlich auch noch halbwegs ok mit 3.0.
Schade dass AMD für die 300er und viele 400er Chipsets kein 4.0 freigegeben hat - das hätte auf den Boards noch funktioniert- aber die 500er Chipsets hätten sich wohl sonst noch schlechter verkauft. Ansonsten wäre man auf AMD Plattformen seit 2017 (also seit 7 Jahre ) auf 4.0. So dann erst ab 2019 (also 5 Jahren).

raffa
2024-12-01, 20:59:43
Aus eigener Erfahrung kann ich das bestätigen, 8x3.0 sind zumeist ok, wenn der vram überläuft gehörste der Katz.

Ich finde die 192bit/12GB gut dimensioniert für die Leistungsklasse, das würde selbst meiner 6600 gut stehen, die ist gerne mal vram (zb MSFS202x) und meistens bandbreitenlimitiert.

basix
2024-12-01, 21:16:40
Es hält sich offenbar hartnäckig das Gerücht, dass wenn eine Grafikkarte viel VRAM hat dann ist die PCIe-Geschwindigkeit nicht so wichtig. Und das stimmt nichteinmal ansatzweise. Genug PCIe-Geschwindigkeit braucht man immer.

Du machst hier ein Problem welches eigentlich keines ist.
- Ja, PCIe Speed ist grundsätzlich relevant
- Nein, in der Praxis ist PCIe Speed faktisch egal, solange halbwegs modern und genug VRAM vorhanden ist

Ergo: PCIe ist nicht vollkommen egal, aber eben "nicht so wichtig"

PCIe 2.0 mit einer 4090? WTF? Wer betreibt seine dicke GPU mit PCIe 2.0 oder 3.0 x8? Selbst 10 Jahre alte 4C Haswells haben PCIe 3.0 x16. Und wir sprechen hier bei PCIe v2/x16 oder v3/x8 von ~5% Performance-Verlust. Bei der momentan noch schnellsten dGPU, die es für teures Geld zu kaufen gibt....

Wenn man zuwenig VRAM hat, dann ist PCIe doch mal wichtiger. Dort kann man in Grenzfällen mit schnellerem PCIe noch was retten. Aber selbst PCIe 5.0 x16 wird mangelnden VRAM auch auf langsamen Chips nicht wirklich ausgleichen können, nur die paar ersten VRAM-Mangel Symptome lindern.

Shink
2024-12-01, 21:19:03
Selbst eine 4060Ti hat nur 8 PCIe-Lanes und 128 Bit Speicheranbindung. Klar wäre mehr besser aber irgendwie will Intel dann wohl auch sparen. Bei Alchemist waren ja A580 bis A770 recht weit beisammen bei der Leistung - und vermutlich auch bei den Herstellungskosten.

davidzo
2024-12-02, 02:01:33
Es hält sich offenbar hartnäckig das Gerücht, dass wenn eine Grafikkarte viel VRAM hat dann ist die PCIe-Geschwindigkeit nicht so wichtig. Und das stimmt nichteinmal ansatzweise. Genug PCIe-Geschwindigkeit braucht man immer.

Sehe ich auch so. Mehr PCIe Bandbreite als Argument dass man sich dann weniger Sorgen um VRAM machen muss ist ein schlechter Scherz.

Wir sollten 8GB Karten eb und oberhalb der 4060 / RX7600 von nun an Turbocache GPUs nennen.

Es gibt also die 4060TI TurboCache und die 4060 16GB :freak:

Exxtreme
2024-12-02, 04:27:55
Du machst hier ein Problem welches eigentlich keines ist.
- Ja, PCIe Speed ist grundsätzlich relevant
- Nein, in der Praxis ist PCIe Speed faktisch egal, solange halbwegs modern und genug VRAM vorhanden ist

Ergo: PCIe ist nicht vollkommen egal, aber eben "nicht so wichtig"


Für Leute, die günstiger aufrüsten wollen und deren Board nur PCIe 3 kann, ist das sehr ärgerlich wenn sie eine Grafikkarte kaufen, die nur 8 Lanes hat. Denn die sind dann auf PCIe 2-Niveau.


PCIe 2.0 mit einer 4090? WTF? Wer betreibt seine dicke GPU mit PCIe 2.0 oder 3.0 x8?

Das war nur ein Benchmark um zu zeigen, dass PCIe-Geschwindigkeit Auswirkungen hat auch wenn die Grafikkarte satt VRAM hat. Denn wie gesagt, die Leute glauben, dass man mit VRAM fehlende PCIe-Lanes irgendwie ausgleichen kann. Nein, das kann man nicht.

E39Driver
2024-12-02, 08:37:52
Gerade die kleinen Karten verlieren sehr viel durch ein beschnittenes PCIe Interface.

Bei der RX6400 teils 35% Verlust wenn am PCIe 3.0 betrieben. https://www.techpowerup.com/review/amd-radeon-rx-6400-pci-express-30-scaling/31.html

Von daher immer unverständlich wenn die Hersteller ausgerechnet bei den Einsteigerkarten am PCIe Interface knausern. Eine RTX4090 wird niemand in sein altes B350 Board stecken. Bei einer B580 wird dies anders aussehen, da günstige Upgradelösung. Diese Systeme sind noch millionenfach im Einsatz und kombiniert mit einem Ryzen 5000 von CPU Seite her immer noch ein brauchbares Gaming-System

Shink
2024-12-02, 08:47:07
Bei der RX6400 teils 35% Verlust wenn am PCIe 3.0 betrieben. https://www.techpowerup.com/review/amd-radeon-rx-6400-pci-express-30-scaling/31.html
Die hat ja auch nur 4 Lanes (und war gedacht für mobil wo man ja nicht freiwillig ein PCIe 3-System verbauen muss)
Von daher immer unverständlich wenn die Hersteller ausgerechnet bei den Einsteigerkarten am PCIe Interface knausern.
Wenn ich weniger Lanes von Chip zu Slot hab, hab ich weniger Verlustleistung, einen kleineren Chip mit weniger Anschlüssen und ein einfacheres Boardlayout.

Üblicherweise (z.B. erstmals bei der RX5500) ist das Argument:
- Hurra, ich unterstütze den neuesten PCIe-Standard und damit ist x8 so schnell wie x16. Außer, dein Mainboard kann das nicht aber das ist ja nicht mein Problem. (Genaugenommen ist das bei der B580 auch so, abgesehen davon, dass Intel es verbuggt hat).
- Wenn du ein "Legacy-System" mit dem vorigen Standard hast (wär hier PCIe 4.0) , sind das 5% Performanceeinbußen.
- Wenn dein System noch älter ist, schade. Kauf dir ne andere Karte.

Letzter Punkt war ja bei Alchemist auch schon der Fall. Ohne ReBar könnte Battlemage mit PCIe 3 eventuell sogar schneller sein als Alchemist.

Kriegsgeier
2024-12-02, 09:05:35
Wozu Intel oder AMD Grakas kaufen wenn NVIDIA alle Preissegmente bedient und das mit besseren Angeboten in Software aber auch in Hardware?

Exxtreme
2024-12-02, 09:15:18
Wozu Intel oder AMD Grakas kaufen wenn NVIDIA alle Preissegmente bedient und das mit besseren Angeboten in Software aber auch in Hardware?

Nur zahlst du bei Nvidia 30 - 50% mehr für das gleiche. Und Software ist bei NV auch nicht so der Hammer. Derzeit haben sie z.B. wieder Probleme mit dem Chrome-Browser. Offenbar läuft Nvidia Broadcast nicht richtig wenn gleichzeitig eine Chrome-basierende Anwendung offen ist. Zum Glück bin ich nicht betroffen weil ich denn FF nutze.

vinacis_vivids
2024-12-02, 09:21:47
Nvidia macht dich arm, insbesondere in der Mittelklasse. Da ist AMD zurzeit alternativlos.

robbitop
2024-12-02, 09:33:44
Gerade die kleinen Karten verlieren sehr viel durch ein beschnittenes PCIe Interface.

Bei der RX6400 teils 35% Verlust wenn am PCIe 3.0 betrieben. https://www.techpowerup.com/review/amd-radeon-rx-6400-pci-express-30-scaling/31.html

Von daher immer unverständlich wenn die Hersteller ausgerechnet bei den Einsteigerkarten am PCIe Interface knausern. Eine RTX4090 wird niemand in sein altes B350 Board stecken. Bei einer B580 wird dies anders aussehen, da günstige Upgradelösung. Diese Systeme sind noch millionenfach im Einsatz und kombiniert mit einem Ryzen 5000 von CPU Seite her immer noch ein brauchbares Gaming-System
Die RX6400/6500 hatte auch nur 4 lanes IIRC. Logischerweise verliert sie dann auch mehr.

MSABK
2024-12-02, 09:37:07
Wozu Intel oder AMD Grakas kaufen wenn NVIDIA alle Preissegmente bedient und das mit besseren Angeboten in Software aber auch in Hardware?

Am besten kaufen alle nur noch Nvidia und dann gibt es mehr Wettbewerb.

Konkurrenz ist inmer gut und hoffe es bleibt auch dabei.

E39Driver
2024-12-02, 09:42:38
Die RX6400/6500 hatte auch nur 4 lanes IIRC. Logischerweise verliert sie dann auch mehr.
Ist richtig. Ändert aber nichts daran das die beschnittene B580 bei PCIe 4.0 etwas und bei PCIe 3.0 Boards sehr viel Leistung verlieren wird. Also an der Zielgruppe der Preis-Leistungsorientierten Aufrüster mit älteren Boards vorbei entwickelt. Außer man unterstellt als Hersteller seinen Kunden völlige Ahnungslosigkeit.

amdfanuwe
2024-12-02, 09:48:44
Am besten kauft man mal ein neues Board mit PCIe 4.0. Wenn es günstig sein soll, gibt es das oder eine bessere GPU auf dem gebraucht Markt.
Mittlerweile gibt es schon PCIe 5.0, da sollte ein AIB Hersteller auf PCIe 3.0 keine Rücksicht mehr nehmen müssen.

basix
2024-12-02, 09:48:52
Für Leute, die günstiger aufrüsten wollen und deren Board nur PCIe 3 kann, ist das sehr ärgerlich wenn sie eine Grafikkarte kaufen, die nur 8 Lanes hat. Denn die sind dann auf PCIe 2-Niveau.

Schön, nur wird das eine eher langsame GPU sein und nicht etwas vom Kaliber einer 4090. Wenn selbst die 4090 nur 5% Performance verliert, wie schlimm wird das also bei einer nicht mal halb so schnellen GPU sein (B580)? Ich kann dir die Antwort sagen: Man merkt es nicht. Dein verlinkter Test zeigt genau das (2% Performance-Verlust bei PCIe 3.0 x16).


Das war nur ein Benchmark um zu zeigen, dass PCIe-Geschwindigkeit Auswirkungen hat auch wenn die Grafikkarte satt VRAM hat. Denn wie gesagt, die Leute glauben, dass man mit VRAM fehlende PCIe-Lanes irgendwie ausgleichen kann. Nein, das kann man nicht.
Schön. Wenn jemand glaubte man kann 200GB/s mit 300ns Latenz via PCIe ausgleichen, sollte generell etwas an seinem technischen Verständnis arbeiten, sich einlesen und mal die Grössenverältnisse von DRAM vs. PCIe hinsichtlich Bandbreite un Latenz anschauen ;)

Dein verlinkter Benchmark zeigt genau auf, dass wir hier bei genug VRAM von einzelnen Prozenten sprechen. Dass PCIe 1.0 eine 4090 einbremst wissen wohl alle (und wird man real nirgends antreffen). Doch in 99.9% der praktischen Fälle ist PCIe Speed vor allem eines: Schnell genug und limitiert fast nicht. Deswegen bleibe ich dabei: PCIe Speed ist nicht so wichtig. Auch nicht ob die langsameren GPUs nur x8 mitbringen und auf einem älteren Board dann halt mit PCIe 3.0 laufen. Wichtig ist, dass die GPU genug VRAM hat. Und mit 12GB sieht das bei der B580 ganz gut aus. PCIe 4.0 x8 ist bei der Karte mMn also kein wirklicher Makel, weil im Normalfall keine Vorteile aus einer breiteren Anbindung entstehen.

amdfanuwe
2024-12-02, 09:53:36
Also an der Zielgruppe der Preis-Leistungsorientierten Aufrüster mit älteren Boards vorbei entwickelt.
Das widerspricht sich doch in sich selbst.
Zielgruppe sind eher die Neu Einsteiger.

aufkrawall
2024-12-02, 09:56:55
Denn wie gesagt, die Leute glauben, dass man mit VRAM fehlende PCIe-Lanes irgendwie ausgleichen kann. Nein, das kann man nicht.
Da hast du wohl etwas durcheinander gebracht. Leute glauben oft irrig, man könnte VRAM durch PCIe-Bandbreite ausgleichen. Nicht umgekehrt.

mocad_tom
2024-12-02, 10:52:40
B580 kann wohl mittig zwischen 4060 und 4060ti hinkommen.
Und mit 12GB treffen sie auch einen Sweet-Spot.


In der 30er-Gen kann man die 3070ti mit 8GB schön versenken, wenn dort der Speicher nicht mehr reicht.

Ich glaube das sich das Ding gut verkaufen wird und dadurch, dass Intel dazu gezwungen ist viel Treiberarbeit zu leisten, weil ihre iGPU-Chiplets auch schön zulegen sollen/müssen, wird das ein Preis-Leistungs-Nachhaltigkeits-Knaller.

Ich habe mir vor ewigen Jahren eine 1080ti zugelegt, die hat sich damals schon mit Bitcoin abbezahlt, die werkelt bis heute in einem PC von den Kids(und macht immer noch Spaß bei z.B. Hogwarts).

Die B580 ist wohl die erste vernünftig bepreiste Karte, die die 1080ti rauskegeln könnte.

Shink
2024-12-02, 11:16:57
Ich glaube das sich das Ding gut verkaufen wird
DAS wird ganz sicher nicht passieren aber beim Rest stimme ich dir zu.

basix
2024-12-02, 12:41:29
Da hast du wohl etwas durcheinander gebracht. Leute glauben oft irrig, man könnte VRAM durch PCIe-Bandbreite ausgleichen. Nicht umgekehrt.

Ich glaube er hat es schon so gemeint wie er es gesagt hat. Und es könnte Leute geben, die das auch so denken (inkl. mir ;)) Prinzipell ist ist es nämlich so dass eine schmale PCIe Anbindung nicht wirklich weh tut, wenn man genug VRAM hat. Und daran glaube ich auch ;) Er versucht uns hier nur weiszumachen, dass PCIe auch inkl. genug VRAM wichtig ist. Ist es aber in der Praxis in 99.9% der Fälle nicht, weil selbst PCIe 3.0 x8 nicht limitiert (und selbst bei einer 4090 nur 5% limitiert). Dass ab irgendeinem extremen Verhältnis (langsames/ schmales PCIe mit sehr schneller GPU) PCIe anfängt zu limitieren ist völlig normal. Nur ist das kein praxisnaher Fall weil es faktisch nicht vorkommt. Wenn langsamere GPUs dann nur eine x8 Anbindung haben so what, wird keinen Unterschied machen. N24 war hier ein Extremfall, weil eben nur mit x4 angebunden und gleichzeitig nur 4GB VRAM. Und weil alles so super (zu) knapp ist, hilft hier PCIe 4.0 vs. PCIe 3.0 ein bisschen. Sobald man auf eine 8GB Variante wechselt, sind die meisten Probleme verschwunden, egal ob PCIe 4.0 oder 3.0

Damit gesagt ist der Fall den du beschreibst unter dem Strich der wichtigere Fehlschluss, welchen einige Leute haben können. VRAM-Menge kann nicht durch schnelleres PCIe kompensiert werden. Man kann ein paar Symptome etwas lindern (siehe RX6400), mehr nicht. Unter dem Strich ist es aber bei weitem kein Ersatz.

basix
2024-12-02, 12:59:13
DAS wird ganz sicher nicht passieren aber beim Rest stimme ich dir zu.

250$ für etwas zwischen 4060 und 4060 Ti und 12GB sowie ~150W hören sich in der heutigen Zeit ziemlich gut an.
- 4060 hat nur 8GB bei 299$
- 4060 Ti hat nur 8GB bei 399$
- 4060 Ti mit 16GB liegt bei 499$ (wtf...)
- RX7600 hat nur 8GB und ein schwächere RT-Performance
- RX7600XT 16GB kostet 329$, schwächere RT-Performance bleibt und dazu hoher Stromverbrauch

Also verglichen mit dem jetzigen Portfolio von AMD und Nvidia schaut das ziemlich gut aus. Performance-Totalausfälle werden mit BMG wohl fast keine mehr passieren, anders als bei Alchemist.

Nvidias Blackwell GPUs werden unten rum entweder bei 8GB bleiben und den Nachteil von 4060(Ti) erben oder kommen später mit 12GB (24Gbit GDDR7 Chips, Zeitvorteil Intel). Bei AMD wird es von N44 8GB Modelle geben mit entsprechendem Nachteil AMD. Die GPU selber ist wohl schneller und sparsamer als B580. Die 16GB Variante von N44 wäre hier die Lösung, welche B580 am ehesten abschiessen wird, wenn entsprechend bepreist (was beim vermutlich sehr kleinen N44 Chip so eintreten könnte)

robbitop
2024-12-02, 13:27:27
Ist richtig. Ändert aber nichts daran das die beschnittene B580 bei PCIe 4.0 etwas und bei PCIe 3.0 Boards sehr viel Leistung verlieren wird. Also an der Zielgruppe der Preis-Leistungsorientierten Aufrüster mit älteren Boards vorbei entwickelt. Außer man unterstellt als Hersteller seinen Kunden völlige Ahnungslosigkeit.
Er verliert potenziell Leistung. Wie viel das ist muss man sehen. Aber der Vergleich mit der RX6400/6500 hinkt dennoch. Potenziell um einen großen Faktor. (denn sowas wird meist asymptotisch schlimmer ab einem gewissen Punkt und darüber nicht)

robbitop
2024-12-02, 13:30:09
Ich glaube er hat es schon so gemeint wie er es gesagt hat. Und es könnte Leute geben, die das auch so denken (inkl. mir ;)) Prinzipell ist ist es nämlich so dass eine schmale PCIe Anbindung nicht wirklich weh tut, wenn man genug VRAM hat.
Teste mal eGPUs. Egal wie viel VRAM die haben und auch egal ob du den Monitor per HDMI anschließt. Das ist je nach Spiel ein richtig krasses Rumgegurke. Dort sind es allerdings nur 4x PCIe 3.0 lanes per TB3/4. (wovon IIRC nur 3 genutzt werden können)

Ab einem gewissen Punkt ist das ein krasser Bremsklotz. Mit 8 Lanes aber wahrscheinlich nicht. Auch nicht mit PCIe 3.0 da bin ich bei dir.

Shink
2024-12-02, 14:15:01
verglichen mit dem jetzigen Portfolio von AMD und Nvidia schaut das ziemlich gut aus.
Das bestreit ich ja nicht. Die A750 kostet seit einiger Zeit unter 200€ im deutschsprachigen Markt und es kommt wirklich absolut überhaupt niemand auf die Idee, eine zu kaufen. Wenn sich Battlemage "viel besser" verkauft, weiß ich nicht ob es für einen Marktanteil von 1% reicht.

davidzo
2024-12-02, 14:33:19
Teste mal eGPUs. Egal wie viel VRAM die haben und auch egal ob du den Monitor per HDMI anschließt. Das ist je nach Spiel ein richtig krasses Rumgegurke. Dort sind es allerdings nur 4x PCIe 3.0 lanes per TB3/4. (wovon IIRC nur 3 genutzt werden können)

Ab einem gewissen Punkt ist das ein krasser Bremsklotz. Mit 8 Lanes aber wahrscheinlich nicht. Auch nicht mit PCIe 3.0 da bin ich bei dir.

Ich benutze seit 4 Jahren eGPUs an meinem macbook (mit TB2). Eine 5500XT im homeoffice und eine RX570 auf der Arbeit. Letztere läuft sogar nur mit TB1 und ist trotzdem fast genau so schnell wie die Navi Karte.

Ich kenne die ganzen eGPU Reviews die das mit Highend GPUs testen und dann als Unsinn abtun. Mit lowend oder Midrange GPUs macht das ganze aber durchaus Sinn. Als ich die eGPU für mein 2014er Macbook gekauft habe war die 3D performance damit besser als mit einem 2019er Macbook mit 5500m und zugleich viel Kühler und leiser.
Solange man den 8GB VRAM nicht überfordert ist die performance keine 10% hinter derselben karte im Desktop. Zugegeben geht es bei mir um CAD Modellierung, also schlecht optimierte Szenen mit so niedrigen FPS die auf der IGP eine Slideshow wären und mit der eGPU immerhin mit 30-60FPS laufen. Zum CAD Modellieren braucht man halt keine 120FPS.

Jetzt aber genug OT.

Tolles Video von Raff btw!

Weiß jemand wann das ETA ist morgen?

mczak
2024-12-02, 14:44:32
250$ für etwas zwischen 4060 und 4060 Ti und 12GB sowie ~150W hören sich in der heutigen Zeit ziemlich gut an.
Ich habe so meine Zweifel dass es bei ~150W bleibt? Zwar benötigen offenbar die günstigeren B580 nur einen 8-Pin Anschluss, manche haben aber offensichtlich 2 davon - klingt für mich eher nach einem ~180W Design, wären es nur ~150W hätte man auch noch Reserven für OC bei bloss einem 8-Pin Anschluss. Aber immerhin müsste die TDP tiefer sein als bei einer Arc A770 oder RX 7600XT (aber eben nicht unbedingt tiefer als bei einer RX 7600), auch wenn der Vorteil wohl hauptsächlich durch die bessere Fertigung zustande kommt.
Wäre die B580 performancemässig etwa in der Mitte zwischen 4060 und 4060Ti würde es auch für die B570 relativ gut aussehen - die wäre dann immer noch konkurrenzfähig mit der 4060 (sollte ja mit 16.7% weniger Bandbreite, 10% weniger Kernen und nominell ~7% weniger Takt (wobei letzteres auch der Effizienz förderlich sein sollte) etwa ~15% langsamer sein als die B580), dabei immer noch mehr Speicher als diese haben und ausserdem doch sehr deutlich günstiger sein (wobei ich mal vermuten würde der Preis wird auch höchstens 20% tiefer sein als bei der B580).

basix
2024-12-02, 16:35:19
Educated guess ;) 32 Xe-Cores würde dann bei ca. 220...250W landen. Mehr wird das sicher nicht werden.

150W sollten schon in etwa passen.

robbitop
2024-12-02, 16:46:31
Ich benutze seit 4 Jahren eGPUs an meinem macbook (mit TB2). Eine 5500XT im homeoffice und eine RX570 auf der Arbeit. Letztere läuft sogar nur mit TB1 und ist trotzdem fast genau so schnell wie die Navi Karte.

Ich kenne die ganzen eGPU Reviews die das mit Highend GPUs testen und dann als Unsinn abtun. Mit lowend oder Midrange GPUs macht das ganze aber durchaus Sinn. Als ich die eGPU für mein 2014er Macbook gekauft habe war die 3D performance damit besser als mit einem 2019er Macbook mit 5500m und zugleich viel Kühler und leiser.
Solange man den 8GB VRAM nicht überfordert ist die performance keine 10% hinter derselben karte im Desktop. Zugegeben geht es bei mir um CAD Modellierung, also schlecht optimierte Szenen mit so niedrigen FPS die auf der IGP eine Slideshow wären und mit der eGPU immerhin mit 30-60FPS laufen. Zum CAD Modellieren braucht man halt keine 120FPS.

Jetzt aber genug OT.

Tolles Video von Raff btw!

Weiß jemand wann das ETA ist morgen?
Ich spiele auf jeder Dienstreise mit einer eGPU seit 6 Jahren. Windows Laptop. Immer weiter sich erneuernde HW auf Laptop und GPU Seiten. Und immer darauf geachtet, dass es TB mit 4 Lanes ist. In vielen Spielen skaliert die Leistung kaum noch mit der Auflösung. Und die Framerate ist nicht besonders gut - auch bei Medium Details nicht. Sebst im DX11 Witcher 3.
Und ich vergleiche die eGPU mit dem Betrieb in meinem Desktop im GPU Limit. Allerdings nicht mit einer low end GPU eher immer mid range. 60er und 70er Geforce Reihe. In Witcher 3 gehen nicht einmal konsistent 60 fps überall und im Desktop lacht sich die Karte kaputt. Und ich monitore auch per OSD den VRAM. Der ist nicht voll - wie auch bei immer nur 1080p und meist medium details.

Mit einer low end GPU die 6 Jahre alt ist mag es allerdings sein, dass Thunderbolt nicht limitiert.

aceCrasher
2024-12-03, 14:33:23
Soll nicht angeblich heute Battlemage vorgestellt werden? Gibts da keinen Countdown oder sowas? Irgendwas das man gucken kann?

mboeller
2024-12-03, 14:36:42
Soll nicht angeblich heute Battlemage vorgestellt werden? Gibts da keinen Countdown oder sowas? Irgendwas das man gucken kann?

guchst du hier:

https://www.youtube.com/@intelgaming/featured

anscheinend zu blöd für einen Direkt-Link:
https://www.youtube.com/watch?v=Dl81n3ib53Y

aceCrasher
2024-12-03, 14:53:21
guchst du hier:

https://www.youtube.com/@intelgaming/featured

anscheinend zu blöd für einen Direkt-Link:
https://www.youtube.com/watch?v=Dl81n3ib53Y
Vielen Dank :biggrin:

Daredevil
2024-12-03, 14:55:56
So Jungs, die Mate steht kalt, um 15 Uhr gehts los. :D
Bin gespannt, was Intel so im Hintertürchen gewerkelt hat und ob wir hier schon Fragmente des hoffentlich "New Intels" sehen werden, oder ob man doch keine langfristige Vision hat sondern einfach kein Bock auf dGPUs.

Videocard hat schon ordentlich gespoilert:
XeSS Frame Generation
https://videocardz.com/newz/intel-announces-arc-b580-at-249-and-arc-b570-gpus-at-219


GEHT LOS:
Dl81n3ib53Y

Kriegsgeier
2024-12-03, 15:00:19
Sollten die Treiber halbwegs mitspielen ist Intel was GANZ GROßES für den Preis gelungen!

Raff
2024-12-03, 15:02:58
Jetzt offiziell: Intel Arc B580 und B570 mit Release und Preisen (https://www.pcgameshardware.de/Arc-B580-Grafikkarte-280998/Tests/Intel-Release-Benchmark-vs-B570-Preis-1460897/)

Xizz2jv5mwU

Inklusive Performance-Projektion.

MfG
Raff

Kriegsgeier
2024-12-03, 15:04:42
Wie? Raff, Habt ihr noch keine Karten zum Testen gehabt?

dildo4u
2024-12-03, 15:08:02
Sie Zeigen sie selber wo sie ohne Vram Vorteil sind.

https://i.ibb.co/PDpvzyw/26-1080-4b3a9397.png (https://ibb.co/nP2N8yz)

https://www.computerbase.de/news/grafikkarten/intel-battlemage-arc-b580-und-arc-b570-fuer-249-und-219-us-dollar-vorgestellt.90519/

Daredevil
2024-12-03, 15:09:02
XeSS-SR + XeSS+FG + "Best Price-Performance in Industry" + genügend VRAM

Nvidia & AMD Currently:
https://s20.directupload.net/images/241203/tu3r2oum.jpg

Raff
2024-12-03, 15:11:40
Angst muss nur Nvidia haben, da dort 12 und 16 GiB erst in hohen Preisbereichen zu haben sind. AMD ist mit der 7600 XT + FMF recht gut aufgestellt (Raytracing ausgeklammert).

MfG
Raff

Daredevil
2024-12-03, 15:15:55
Jo haste recht, hatte es oben editiert mit dem VRAM. Es ist einfach ein rundes Produkt offenbar.
Quote of the Stream ist imho:
"Remember when you get a good graphics cards for 250$? We doubled the performance at that price point" ( Verglichen zur GTX1060/1660s )

Ziemlich klarer Fokus und durchaus etwas, was man dank Nvidia und AMDs Höhenflug in der Preis Range vermisst, ohne offensichtliche Kompromisse zu machen. ( Verbrauch, RT, VRAM, Performance ).
Genau so ist AMD auch früher mit Polaris gestartet. Next Gen ist dann eine 4K Karte für 999€ ... xD

Sonyfreak
2024-12-03, 15:15:57
Wenn die Performancezahlen von Intel stimmen, sieht Battlemage im Marktsegment von RTX 4060 und RX 7600 tatsächlich interessant aus. :cool:

mfg.

Sonyfreak

MSABK
2024-12-03, 15:16:31
Passable moderne Karten mit Mateixeinheiten zu fairen Preisen.

Shink
2024-12-03, 15:17:26
Die UVP-Unterschied zwischen B570 und B580 ist etwas enttäuschend aber 150Watt ist gar nicht so übel (quasi genau zwischen RX7600 und RTX4060).

dildo4u
2024-12-03, 15:17:32
Abseits vom Vram sie haben endlich Unreal Engine 5 gefixt dort war die Performance unterirdisch in Fortnite schlafen die 12GB.

https://i.ibb.co/6PXBzpT/Screenshot-2024-12-03-151628.png (https://ibb.co/QNDdLqT)

HOT
2024-12-03, 15:19:11
Passable moderne Karten mit Mateixeinheiten zu fairen Preisen.

Das würd ich auch so sehen. Wenn die PCGH-Projektionen halbwegs stimmen sind die echt ok die neuen Karten.

Daredevil
2024-12-03, 15:21:39
Sehr bezeichnend übrigens, dass die auf einem 14900K getestet haben im Nov 2024. :D
PS: Sehe ich das richtig, dass das Kühl Design der Ref ähnlich wie dem von Nvidia ist? Eine pustet durch, einer pustet raus? Finde ich gut, hat sich bewährt.
So, jetzt Raffs Video anschauen. :)

robbitop
2024-12-03, 15:38:09
IMO sehr interessant, dass es nun auch eine Framegeneration Technologie inkl Latenzreduktion gibt. Schade, dass wohl (erst mal?) keine B7xx kommt. So kann sich B580 kaum absetzen - Intel hat extra nur mit der A750 verglichen und nicht mit der 770. Und man ist im Schnitt kaum schneller. Die GPU ist einfach zu klein ^^

Dieses Kühlerdesign (kurze Karte, überhängender Kühlkörper) ist eigentlich bei 3rd Party Herstellern nicht so neu. Hab ich schon öfter gesehen.

Shink
2024-12-03, 15:39:10
Angst muss nur Nvidia haben, da dort 12 und 16 GiB erst in hohen Preisbereichen zu haben sind.
Natürlich müssen die keine Angst haben - ziemlich sicher verdienen sie pro verkaufter Karte mehr als Intel also könnten sie mit dem Preis runter, bis Intel keine Lust mehr hat.

Der Kunde darf sich freuen.

Loeschzwerg
2024-12-03, 15:43:18
Battlemage scheint definitiv eine reifere Banane zu sein als Alchemist =) Mir gefällt das Paket aus neuen Features und verbesserter Arch sehr gut. Mal schauen wie es um die Idle-Leistungsaufnahme steht ^^

Exxtreme
2024-12-03, 15:43:41
Natürlich müssen die keine Angst haben - ziemlich sicher verdienen sie pro verkaufter Karte mehr als Intel also könnten sie mit dem Preis runter, bis Intel keine Lust mehr hat.

Der Kunde darf sich freuen.

Die werden auch mit dem Preis gar nicht runter müssen. Die Leute kaufen trotzdem grün, auch wenn es 80% mehr kostet.

Shink
2024-12-03, 15:49:05
Mal schauen wie es um die Idle-Leistungsaufnahme steht ^^
Wahrscheinlich nicht schlechter als Alchemist.:freak:

Die werden auch mit dem Preis gar nicht runter müssen. Die Leute kaufen trotzdem grün, auch wenn es 80% mehr kostet.
Ok, dann dürfen sich zumindest die freuen, die nicht zwingend grün kaufen, dass es eine nett bepreiste Alternative gibt.

Für mich stellt sich jetzt noch die Frage, wie lange sie noch brauchen, bis die Linux-Treiber schnell genug für Gaming sind aber da bin ich natürlich Randgruppe.

Fusion_Power
2024-12-03, 16:32:51
So, Butter bei die Fische: was verbrauchen nun die neuen GPUs im Idle? DAS wäre tatsächlich meine erste Frage bezüglich der neuen Intel Generation.

AffenJack
2024-12-03, 16:38:35
Die UVP-Unterschied zwischen B570 und B580 ist etwas enttäuschend aber 150Watt ist gar nicht so übel (quasi genau zwischen RX7600 und RTX4060).

Mehr geht wahrscheinlich einfach nicht aufgrund der Produktionskosten. 270mm² in 5nm sind nicht günstig. Intel wird so schon nur minimalmargen haben.

Aber ich verstehe nicht, was Intel im Design macht? Wie kommt man auf 270mm² in 5nm mit nur 19,6 Mrd Transistoren? 18mb L2 sind auch nicht so wenig, dass das als Erklärung funktioniert.

Das zeigt ganz deutlich, dass Battlemage Problem nicht das Architekturdesign an sich ist, pro Transistor ist die Geschwindigkeit nämlich in Ordnung. Es ist die Implementierung des Designs in Silizium, die einfach grottig ist. Das gleiche wie schon bei CPUs, Intels Designsteams schaffen es nicht High-Density Designs auf die Beine zu stellen, auch wenn der Prozess viel mehr kann.

davidzo
2024-12-03, 17:05:36
Es ist die Implementierung des Designs in Silizium, die einfach grottig ist. Das gleiche wie schon bei CPUs, Intels Designsteams schaffen es nicht High-Density Designs auf die Beine zu stellen, auch wenn der Prozess viel mehr kann.

Dies! 72Mio Transistoren pro mm2 ist fast auf N6 Niveau. N33 schafft 65MTr/mm2 noch in N6 und bei N31 schafft AMD mit 150Mtr/mm2 Spitzenwerte für vanilla N5. Dabei taktet N31 trotzdem nah genug an 3Ghz. Anscheinend hat intel wenig Erfahrung mit selektivem Fin-Depopulation und geht lieber auf Nummer Sicher mit mehrfinnigen Zellen.

Auch wundert es mich sehr dass Intel immer noch auf N5 setzt und nicht wenigstens auf N4P, das seit Ende '22 in Massenproduktion ist.
Auch bei Lunarlake war man mit N3B etwas spät dran denn TSMC hatte zu dem Zeitpunkt eigentlich schon den N3E Prozess verfügbar der dieselben Fertigungsstraßen nutzen kann.

Das bedeutet Intel hat immer noch viel zu lange turnaround times. Wenn BCM-G21 noch 5nm ist, dann muss der Tapeout zwischen Ende 2022 oder Anfang 2023 gewesen sein. Das ist eine sehr lange time to market für einen Grafikchip.

dildo4u
2024-12-03, 17:08:23
Ist 5nm nicht frei wenn NV und AMD 4NP nutzen halte ich für Sinnvoll.

reaperrr
2024-12-03, 17:09:18
Aber ich verstehe nicht, was Intel im Design macht? Wie kommt man auf 270mm² in 5nm mit nur 19,6 Mrd Transistoren? 18mb L2 sind auch nicht so wenig, dass das als Erklärung funktioniert.
Das habe ich auch gedacht.

Die Performance ist für die Transistormenge eigentlich fast OK, die Fläche aber definitiv nicht.
Künstlich hohe Transistorabstände, weil man nur so überhaupt konkurrenzfähige Taktraten erreichen konnte?
Würde mich echt interessieren.

Daredevil
2024-12-03, 17:12:31
Auch wundert es mich sehr dass Intel immer noch auf N5 setzt und nicht wenigstens auf N4P, das seit Ende '22 in Massenproduktion ist.

"Schaut mal, unsere 18A Fertigung ist so geil, die ist viel besser als die von TSMC". Case closed. :D

Man kann natürlich nur mit der eigenen Fertigung flexxen, wenn man nicht die TopNotch Fertigung des Mitbewerbers nutzt. 5nm lässt Intel im Markt bleiben und die Marktanteile steigern, während man aber noch genug Platz hat um ein riesen Sprung auf die eigenen Labs zu schaffen und dies auch medial zu zelebrieren. Angenommen, das ist auch wirklich der Fall und man glaubt Intel jedes Wort, was auf Basis der Vergangenheit ein wenig naiv sein könnte. ;(

davidzo
2024-12-03, 17:13:16
Ist 5nm nicht frei wenn NV und AMD 4NP nutzen halte ich für Sinnvoll.
N5 und N4P ist dieselbe Prozessfamilie. Ich würde mal stark davon ausgehen dass das auf denselben Geräten läuft, bzw. die gleichen Fertigungsstraßen nutzt.

5nm lässt Intel im Markt bleiben und die Marktanteile steigern, während man aber noch genug Platz hat um ein riesen Sprung auf die eigenen Labs zu schaffen und dies auch medial zu zelebrieren.
So ein 4D Chess traue ich Intel nicht zu. Für eine fragwürdigen Marketingeffekt in ferner Zukunft gleich das 2024-25 Produktportfolio aufs Spiel zu setzen traue ich nichtmal Gelsinger zu. Der ist zwar Risikofreudig, aber immer noch zuerst Engineer und denkt nicht zu allererst ans Produktmarketing. Siehe Arrowlake. Das der in Gaming durchfällt war den verantwortlichen offensichtlich bewusst, aber eben nicht so wichtig wie andere workloads. Dass das Consumer Medienecho deswegen so groß und negativ ausfällt, damit hat man wohl nicht gerechnet.

dildo4u
2024-12-03, 17:35:14
Hab das Gefunden

Fortnite 1440p Epic 4060 TI 35 bis 40fps

https://youtu.be/tB7LO5uLJc4?si=Sp5VeFMplGf8F8r8&t=270

B580 35fps

https://youtu.be/Dl81n3ib53Y?si=L2ou_stCLLG5Cw3U&t=254

Lurtz
2024-12-03, 17:44:05
XeSS-SR + XeSS+FG + "Best Price-Performance in Industry" + genügend VRAM

Nvidia & AMD Currently:
https://s20.directupload.net/images/241203/tu3r2oum.jpg
Haha, als ob. Man muss schon mutig sein die Karten zu kaufen. Ob der Treibersupport das Jahr 2025 überlebt, steht beim Zustand von Intel völlig in den Sternen.

Daredevil
2024-12-03, 17:55:15
So ein 4D Chess traue ich Intel nicht zu. Für eine fragwürdigen Marketingeffekt in ferner Zukunft gleich das 2024-25 Produktportfolio aufs Spiel zu setzen traue ich nichtmal Gelsinger zu.
Fragt man sich nicht immer bei Produkten, wieso das noch noch mehr gegangen wäre? Natürlich ist es ein Marketing Ding bzw. ein Weg, den viele der erfolgreichen Hersteller gehen: Slow and steady.
Lisa Su hat in einem Interview mal gesagt, das sie lieber kontinuierlich kleine Schritte gehen wollen, als immer the latest and greatest zu sein, weil man alles in eine Generation gesteckt hat. Sowas musste man bei Intel in letzter Zeit in der CPU Sparte sehr missen, während AMD/Nvidia/Apple dieses Spiel eigentlich recht gut spielt. Das man also LastGen nutzt, damit man garantiert keinen Flop mit der NextGen ( Sei es von TSMC, oder besser Intel ) hat, kann schon Sinn machen. Ich hätte aber auch gerne 3nm gesehen, bekomme ich aber nicht. :D

Haha, als ob. Man muss schon mutig sein die Karten zu kaufen. Ob der Treibersupport das Jahr 2025 überlebt, steht beim Zustand von Intel völlig in den Sternen.
True dat. Den Trade muss man sicherlich eingehen und der sollte einem auch ein paar Kröten Wert sein beim GPU Kauf. Hervorheben muss man allerdings echt, das Intels GPU Sparte sich ordentlich ins Zeug legt und wirklich versucht, das zu tun, was der Kunde möchte. Das man sowas 2024 hervor heben kann und dann auch noch von Intel, fühlt sich echt komisch an. :D
Wenn Intel verantwortlich ist, dass die Entry Karten von Nvidia und AMD netter werden, wäre das doch ein ein zufriedenstellender Effekt. Kann man echt froh sein, dass die den Mut gehabt haben und in den Markt mit eingestiegen sind.

dildo4u
2024-12-03, 17:57:55
Der Treiber wird doch für IGP weitergeführt schon die Handhelds erfordern Day One Support.

https://videocardz.com/newz/msi-launches-claw-8-and-7-ai-gaming-handhelds-with-intel-lunar-lake-and-32gb-ram

Loeschzwerg
2024-12-03, 18:21:52
Wahrscheinlich nicht schlechter als Alchemist.:freak:

Na das wäre mal was falls doch :freak: *Looking at you MTT S80*


Für mich stellt sich jetzt noch die Frage, wie lange sie noch brauchen, bis die Linux-Treiber schnell genug für Gaming sind aber da bin ich natürlich Randgruppe.

Da hat sich doch eigentlich schon recht viel getan. Also zumindest sahen die letzten Wert von Phoronix nicht so verkehrt aus.

Shink
2024-12-03, 18:32:51
Haha, als ob. Man muss schon mutig sein die Karten zu kaufen. Ob der Treibersupport das Jahr 2025 überlebt, steht beim Zustand von Intel völlig in den Sternen.
Pff sonst hat man halt die letzte GPU-Generation von Intel für die Sammlung. Fänd ich okay. Habe noch nie bereut, eine Randgruppen-Grafikkarte zu kaufen.

aufkrawall
2024-12-03, 18:34:27
Schön, dass das Bottleneck für UE5 angegangen sein soll.
Jetzt wär noch interessant, wie Fortnite mit dem DX11 Performance Mode auf Lunar Lake läuft.

dildo4u
2024-12-03, 19:41:31
Auch Interessant das sie XESS in Fortnite haben bin gespannt ob das als XMX Version TSR überlegen ist.

ryan
2024-12-04, 01:14:18
TSMC N5 statt N4P ist überraschend. Das ist für eine 2025er Generation ja schon altbacken. Mit N4P wäre ein wenig mehr möglich gewesen beim Takt oder Verbrauch.

Zur 190W TBP: https://youtu.be/z7mjKeck7k0?t=4555

"typically runs much lower"

Daredevil
2024-12-04, 01:35:06
What the fuck?
Es gibt tatsächlich ein Windows Feature, welches in Kombination mit einer iGPU die dGPU komplett deaktiviert, was darin resultiert, dass die dGPU nur noch 1w säuft, während man gerade kein Game am laufen hat?
https://www.reddit.com/r/IntelArc/comments/161w1z0/managed_to_bring_idle_power_draw_down_to_1w_on/

Quasi wie Optimus für Desktop GPUs? Was??? Da habe ich ja noch nie von gehört, das wäre ja der absolute Oberknaller. Hat das jemand hier schon mal ausprobiert und/oder hat sowas davon schon mal gesehen, ob das wirklich funktioniert? Dit ist doch too good to be true, no way :ugly:
Wenn das geht, werd ich Intel Ultra und kaufe mir drei Battlemages. ;D

dildo4u
2024-12-04, 05:55:54
Hybrid Grafik ist auch auf AM5 Möglich


https://www.planet3dnow.de/cms/67740-sockel-am5-hybrid-graphics-ausprobiert/2

Daredevil
2024-12-04, 07:31:29
Das ist natürlich eingeschränkt witzlos wenn AM5/Zen selbst ein „Säufer“ vom Dienst ist gegenüber Arrow Lake, aber trotzdem super interessant. Habe davon noch nie hier im Forum gelesen, das jemand sowas wirklich nutzt. Andersrum hat AMD wenigstens potente Hardware auf der GPU Seite. :D
Gibts da noch mehr Erfahrungsberichte?

MSABK
2024-12-04, 07:35:43
https://www.neowin.net/news/intel-graphics-software-unveiled-an-all-in-one-hub-to-replace-arc-control/

Es kommt auch ein neues Software Panel.

Twodee
2024-12-04, 08:42:24
Das ist natürlich eingeschränkt witzlos wenn AM5/Zen selbst ein „Säufer“ vom Dienst ist gegenüber Arrow Lake, aber trotzdem super interessant. Habe davon noch nie hier im Forum gelesen, das jemand sowas wirklich nutzt. Andersrum hat AMD wenigstens potente Hardware auf der GPU Seite. :D
Gibts da noch mehr Erfahrungsberichte?
Also ein AM5-System mit 8700G+dGPU kann schon sparsam(er) @IDLE sein als alles andere:

https://images.hothardware.com/contentimages/article/3398/content/power-amd-ryzen-8000g-performance.png

Shink
2024-12-04, 09:08:09
Gibts da noch mehr Erfahrungsberichte?
Hier im Linux-Subforum hat ein Member das ausprobiert mit AM4+RDNA2 und es läuft wohl einfach so oob, wenn man den Bildschirm am Mainboard anschließt.
Ich denke, dem OpenSource-Treiber ist das egal, ob du ein Laptop oder Desktop hast.
Eventuell geht das mit Alchemist auch schon.

BlacKi
2024-12-04, 09:33:16
Also ein AM5-System mit 8700G+dGPU kann schon sparsam(er) @IDLE sein als alles andere:

https://images.hothardware.com/contentimages/article/3398/content/power-amd-ryzen-8000g-performance.pngalso mein 12900k mit igpu war noch sparsamer als alles dort im chart. wenn man dann in richtung gesockelten mini pc boards geht abseits der masse kann man dann den idle verbrauch nochmals halbieren. alles ist relativ.

HOT
2024-12-04, 09:41:37
Die AM5-Idle-Zahlen im Chart sind Quatsch. Da stimmte was mit dem System nicht.

Twodee
2024-12-04, 09:50:37
also mein 12900k mit igpu war noch sparsamer als alles dort im chart. wenn man dann in richtung gesockelten mini pc boards geht abseits der masse kann man dann den idle verbrauch nochmals halbieren. alles ist relativ.
+dGPU !=iGPU only :rolleyes:

aktiviertes Hybrid-Graphics hätte hier bei der GTX3080 vermutlich zusätzlich noch ein paar Watt eingespart.

BlacKi
2024-12-04, 09:56:03
+dGPU !=iGPU only :rolleyes:

aktiviertes Hybrid-Graphics hätte hier bei der GTX3080 vermutlich zusätzlich noch ein paar Watt eingespart.ich denke eher, dass das automatisch an war. sonst würden die zahlen keinen sinn ergeben.

Twodee
2024-12-04, 10:01:24
ich denke eher, dass das automatisch an war. sonst würden die zahlen keinen sinn ergeben.
nein das ist nicht automatisch an, das muss man explicit im Bios aktivieren - ist jedenfalls bei meinem ROG Crosshair X670E GENE so und wird bei dem dort verwendeten ROG Crosshair X670E auch der Fall sein. Es reicht nicht aus das Display am Mainboard anzustecken.

BlacKi
2024-12-04, 10:23:00
dann erkläre du einmal, wie eine dgpu @idle sonst eingebremmst werden sollte. der verbrauchsunterschied zwischen igpu und dgpu ist zu klein.

davon abgesehen, testen sie die neuen G prozessoren mit einem ASRock B650 Pro RS statt wie bei den anderen am5 prozessoren mit einem X670E-based motherboard.

Overall power consumption would have been higher with the Ryzen 5 8600G and Ryzen 7 8700G if tested in the same X670E-based motherboard. The B650, however, is better suited to mainstream APUs like Ryzen 8000G series, and AMD recommended testing in the B650.https://hothardware.com/reviews/amd-ryzen-8000g-with-radeon-graphics-apu-review?page=5

Twodee
2024-12-04, 10:31:44
Ach die verwenden für die APUs ein mickriges B650 Board, ok habe ich übersehen. Das HybridGraphics aktiv ist, steht da aber nirgends. Ändert also nichts bis auf die Tatsache das ein B650 sparsamer ist als ein x670E.

BlacKi
2024-12-04, 10:38:26
das der dgpu vs igpu verbrauch komisch ist, bleibt bestehen. ich kanns nicht erklären, ausser hybrid grafics. hast du einen bessere vorschlag? dann bleib ich bei meinem.

Twodee
2024-12-04, 10:42:55
das der dgpu vs igpu verbrauch komisch ist, bleibt bestehen. ich kanns nicht erklären, ausser hybrid grafics. hast du einen bessere vorschlag? dann bleib ich bei meinem.
Laut CB braucht eine RTX3080 ~12 Watt@Idle [kommt natürlich auf die Auflösung und Hz-Einstellung an]

https://www.computerbase.de/2022-03/nvidia-geforce-rtx-3080-12gb-review-test/3/#abschnitt_leistungsaufnahme_spiele_youtube_desktop

Troyan
2024-12-04, 10:58:32
Frage mich, wieso es für Low-Latency keine vernünftige API in Windows gibt. Jetzt haben alle drei GPU Hersteller ihre eigene (wohl identische) Implementierung. Mal sehen, wieviele Entwickler sich die Mühe machen werden alle drei Varianten einzubauen.

robbitop
2024-12-04, 11:51:25
IIRC gab es auf github sogar ein open source Projekt dafür was genau so funktioniert - allerdings als hook. So ähnlich hat man Antilag+ damals implementiert. Aber grundsätzlich müsste das gehen, sofern die Auslastung der GPU IHV übergreifend auslesbar ist (in einer ausreichend hohen Abtastrate).

dildo4u
2024-12-04, 12:06:23
Intel Version B580 PCB


https://videocardz.com/newz/intel-arc-b580-limited-edition-graphics-card-has-been-taken-apart-features-samsung-gddr6-20-gbps-memory

BlacKi
2024-12-04, 12:25:05
Laut CB braucht eine RTX3080 ~12 Watt@Idle [kommt natürlich auf die Auflösung und Hz-Einstellung an]

https://www.computerbase.de/2022-03/nvidia-geforce-rtx-3080-12gb-review-test/3/#abschnitt_leistungsaufnahme_spiele_youtube_desktopja, aber diese 11w dgpu müsstest du auch auf die anderen systeme übertragen. 80w für nen 7800x3d mit aktiver igpu?ein 7950x bei 95w mit igpu? sry, aber solange die werte komplett gaga sind, haben sie keine relevanz.

ryan
2024-12-04, 12:49:30
According to @Intel_TAP
in his interview on the The Full Nerd @pcworld
there is PCIe 5 technology inside #Battlemage, but this wasn't productized. "Today it is PCIe Gen 4 and that is part of the product."
https://x.com/aschilling/status/1864263906429940222


Also doch ein Bug mit PCIe5, das geben die bloß nicht offen zu.

reaperrr
2024-12-04, 12:56:30
https://x.com/aschilling/status/1864263906429940222


Also doch ein Bug mit PCIe5, das geben die bloß nicht offen zu.
Jup.

Das "Today" klingt auch etwas nach "vielleicht ändert sich das später noch".
Wobei es im Falle eines Hardware-Bugs, der sich nicht per Treiber fixen lässt, dann eher unwahrscheinlich ist, dass Intel hier noch was macht.

ryan
2024-12-04, 13:19:50
Ja kommt drauf an was für ein Bug. Ein Bug auf Hardware Ebene werden die nicht beheben. Das today lässt immerhin eine Möglichkeit offen.

Exxtreme
2024-12-04, 13:26:11
Es könnte auch sein, dass man mit PCIe4 weniger Ausschuss hat. Oder man verbraucht weniger Strom. Das muss jetzt kein Bug sein oder so.

konkretor
2024-12-05, 18:20:02
https://x.com/GawroskiT/status/1864692849335263421


Benches wohl draußen, ob die echt sind sehen wir dann am 12.

Daredevil
2024-12-05, 18:26:46
Das sind geschätzte Werte, der Kollege hat die B580 noch nicht. ^^

Raff
2024-12-06, 13:39:00
Baldur’s Gate 3 kommt auf keinen Fall hin, das stottert mit dem aktuellen Intel-Treiber fürchterbar (unter Vulkan, wo die Average-Fps viel höher ausfallen als beim nicht stotternden DX11).

->

sBIvqovn3jg

;)

MfG
Raff

Badesalz
2024-12-06, 14:02:23
@Raff
Boah... Also das war nicht zielführend :frown: Macht ihr auch andere Modding-Contests als mit PC-Hardware?

Als ich zwischen euch den gemoddeten Pikachu mit dem schwarzen Loch (?) unten sah, hab ich Minuten gebraucht um wieder zu mir zu kommen :usad:

konkretor
2024-12-06, 18:25:30
https://videocardz.com/newz/maxsun-adds-two-m-2-ssd-slots-to-arc-b580-graphics-card




Die Idee find ich super, dann hab ich endlich genug M2 Steckplätze :cool:

robbitop
2024-12-07, 09:25:07
Es gibt für 20€ Adapterkarten wo man mehrere M2s reinstecken kann. Und da in der Praxis fast nichts auch nur annähernd die theoretischen sequenziellen Raten ausreizt reichen auch weniger lanes und/oder ältere PCIe Standards.

mocad_tom
2024-12-07, 10:00:44
Es gibt für 20€ Adapterkarten wo man mehrere M2s reinstecken kann. Und da in der Praxis fast nichts auch nur annähernd die theoretischen sequenziellen Raten ausreizt reichen auch weniger lanes und/oder ältere PCIe Standards.

wenn ich so eine graka reinstecke und den x16er slot aufsplitte, kann dann der teil verbunden mit der graka Pcie gen 4 machen und der hintere teil verbunden mit der nvme pcie gen 5?
Das wäre die viel interessantere Frage.
Und dann wird es richtig interessant.

ryan
2024-12-07, 12:07:04
Gunnir hat diverse B580 Modelle vorgestellt. Dabei wurde was zum Idle Verbrauch gesagt.


The ARC B580 graphics card has many new highlights. Its standby power consumption is greatly reduced, and can be as low as 10W when connected to a single 2K screen.


Die Index Version mit 244mm Länge ist noch ein wenig kürzer als die Asrock B580 Challenger mit 249mm. Intels B580 LE ist 272mm lang durch den Kühler, das PCB selber ist sehr kurz.


The BlueTrident ARC B580 Index 12G is the lowest-positioned product, with a dual-fan radiator and a length of only 244mm. It has the best compatibility, and its specifications are the same as the public version card, with a single 8pin power supply and a TBP of 190W.


Die Lüfter sollen deutlich vebessert wurden sein. Nur leider wird man Gunnir hier nicht kaufen können.

All use new customized Phantom Blade fans. The noise level is reduced by 11% at the same speed and the wind pressure is increased by 26% at the same noise level.
https://www.expreview.com/97128.html

raffa
2024-12-07, 12:46:47
Ich seh mich schon Intel kaufen, das gabs ja lange nicht!

Weiss jemand wies um die Linux Treiber bestellt ist?
siehe https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13662894#post13662894

MSABK
2024-12-07, 14:31:14
Ich seh mich schon Intel kaufen, das gabs ja lange nicht!

Weiss jemand wies um die Linux Treiber bestellt ist?
siehe https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13662894#post13662894

Ich sehe im Bereich 200-300€ eine Lücke in der moderne Karten mit Power fehlen und Intel könnte da was reißen.

bbott
2024-12-07, 16:55:44
wenn ich so eine graka reinstecke und den x16er slot aufsplitte, kann dann der teil verbunden mit der graka Pcie gen 4 machen und der hintere teil verbunden mit der nvme pcie gen 5?
Das wäre die viel interessantere Frage.
Und dann wird es richtig interessant.
Jupp geht, hiermit:
https://www.amazon.de/PCIE4-0-Bifurcation-Extension-Adapter-ports/dp/B0CCDDVN6R?source=ps-sl-shoppingads-lpcontext&ref_=fplfs&psc=1&smid=A1FEXV661L1J1G

Bifurication (x8x4x4) muss von Motherboard unterstützt werden

bbott
2024-12-07, 16:57:01
wenn ich so eine graka reinstecke und den x16er slot aufsplitte, kann dann der teil verbunden mit der graka Pcie gen 4 machen und der hintere teil verbunden mit der nvme pcie gen 5?
Das wäre die viel interessantere Frage.
Und dann wird es richtig interessant.
Sollte mit dem verlinkten Adapter kein Problem sein falls er PCIe 5 schafft :freak:

davidzo
2024-12-08, 01:31:35
Es gibt für 20€ Adapterkarten wo man mehrere M2s reinstecken kann. Und da in der Praxis fast nichts auch nur annähernd die theoretischen sequenziellen Raten ausreizt reichen auch weniger lanes und/oder ältere PCIe Standards.

Mini ITX

Badesalz
2024-12-08, 10:01:11
Ich seh mich schon Intel kaufen, das gabs ja lange nicht!Wirklich absolut wertfrei gefragt:
Kannst du mal anschneiden warum? Ich hab das alles bisher nicht so ganz verstanden warum das Ding interessant ist.

Ich sehe zwar überall die Promos anlaufen (Netz/YT) und wundere mich wieder einmal wie rund diese Welt funktioniert :ulol: aber das ist halt nicht das was ich in einem Forum von Leuten wie du und ich erwarte.

dildo4u
2024-12-08, 10:16:54
AMD und NV werden im Low End nichts daran ändern 8GB Karten zu bringen 128 Bit beschränkt sie auf 8 oder 16GB.
Intel ist gezwungen 192 Bit zu nutzen da sie sonst nicht Konkurrenzfähig sind was die 12GB ermöglicht.

Bis Heute ist die 6750XT 12GB schneller und billiger als 7600XT 16GB.

320€
https://www.mindfactory.de/product_info.php/12GB-XFX-Radeon-RX-6750-XT-Core-Gaming-Aktiv-PCIe-4-0-x16--Retail-_1504309.html

7600XT 340€

https://geizhals.de/?cat=gra16_512&xf=9816_02+04+14+-+RX+7600+XT&asuch=&bpmin=&bpmax=&v=l&hloc=de&plz=&dist=&mail=&sort=p&bl1_id=30#productlist

Aber man muss die EU Preise abwarten wenn B580 über 300€ ist macht die 6750XT Sinn.

raffa
2024-12-08, 12:30:13
Wirklich absolut wertfrei gefragt:
Kannst du mal anschneiden warum? Ich hab das alles bisher nicht so ganz verstanden warum das Ding interessant ist.


12GB/192bit (456 GB/s)
XeSS
RT Cores
Top Video features
Gut für "Content Creation" geeignet
249$ UVP

Man muss natürlich abwarten, wie gut das Ding dann läuft und wie die Marktpreise sich einpendeln und auch sehen was von Rot und Grün so kommt.

davidzo
2024-12-08, 12:35:42
Wirklich absolut wertfrei gefragt:
Kannst du mal anschneiden warum? Ich hab das alles bisher nicht so ganz verstanden warum das Ding interessant ist.

Gegenfrage: Welche Karte unter 300€ findest du aktuell am interessantesten?

Ich muss häufiger mal Freunde beraten die noch auf alten Maschinen rumgurken oder baue manchmal sogar Entrylevel Systeme für gelegentliches Spielen, surfen, video. Da sind 300€ häufig schon zu viel für eine GPU.

Für 299€ hat man früher mal das äquivalent zu einer 3080 bekommen (8800GTS G80), den SalvageChip der Big GPU (8800 Ultra). Ich finde das ist nach wie vor der interessanteste Preisbereich, denn das Gaming-Hobby hat in meinem Alter nachgelassen und damit auch die Bereitschaft dazu 500€ oder mehr für einseltener genutztes Hobby auszugeben.

mocad_tom
2024-12-08, 13:08:57
.... stand quatsch

Badesalz
2024-12-08, 13:48:13
Ok. Falscher Ansatz. Ich überlegte davor nur, 2024 eine Graka die sich vielleicht mit der 2080 messen könnte... Hab wohl die Hintergründe nicht geschnallt :)

AMD lacht man direkt aus, weil sie wohl von RDNA keine XTX bringen.

@davidzo
Greift man bei entry level und beim Thema Graka nicht zum Gebrauchtmarkt? Also ich mach das zu allermeist.

Daredevil
2024-12-08, 14:16:19
Der Gebrauchtmarkt hat zwar ähnliche Leistungsklassen, aber eben nun mal nicht die Features, die heute bei manchen Spielen spaß entscheident sein könnten.
Ein ordentlicher Upscaler und ordentliches Framegeneration + ordentliches Raytracing ( Soll nicht bedeuten, das Intel das so umgesetzt hat. Tests abwarten ), kann in manchen Szenarien bzw. bei neumodernen Spielen auf dem Bildschirm ggf. einfach mehr leisten, als es z.B. eine GTX1080ti tun würde.

Sie ist vermutlich effizient
Sie leistet im Vergleich mehr
Der Preis ist im Vergleich niedriger
Sie hat mehr VRAM als die Konkurrenz
Anschlüsse sind Up2Date
Nur 1x8Pin benötigt
Treiber Updates kommen regelmäßig rein
Best in Class ( ? ) Video De-Encoder
Xe Super Resolution + Xe Frame Generation + Xe Low Latency
Ordentlich OC Headroom laut Intel ( +10-15% )

Möglicher und wahrscheinlicher Nachteil: Ab und an Hickups, weil Intel halt ein GPU Underdog ist. ATI Kunden kennen die Probleme. :D
Natürlich haut das niemanden vom Hocker der jetzt schon eine dGPU hat sofern es keine 1050 ist und natürlich ist das nicht eine GPU, weswegen man nun downgradet von der 2080ti wegen den besseren Software Features. Für Neukäufer in den Preisregionen und natürlich auch für AiBs ist das nett, wenn sie das komplette Paket von Intel fürn Appel und n Ei bekommen, der Kunde im besten Falle auch.

Die Karte verdient auf keinen Fall eine Hypetrain, wie sie einst eine Radeon 9700pro oder 8800GTX bekommen hat. Wir reden hier allerdings von einem Produkt von Intel, einem Unternehmen wo in den letzten Jahres quasi alles schief läuft. Dort nicht nur ein solides, sondern auch ein gutes, manche behaupten sogar besseres Produkt zu bekommen ( Für einen Preis, den Intel zahlt ), als bei AMD oder Nvidia, ist erwähnenswert und Konkurrenz nun mal auch erwünschenswert.

DrFreaK666
2024-12-08, 14:17:07
O...AMD lacht man direkt aus, weil sie wohl von RDNA keine XTX bringen...

Hä? Und wieso sollte Intel so reagieren, wenn sie selbst nur Einsteiger-Karten releasen?

OgrEGT
2024-12-08, 18:18:57
https://videocardz.com/newz/intel-xess-frame-generation-and-xess-low-latency-dlls-leaked

mczak
2024-12-08, 18:55:10
Sie ist vermutlich effizient
IMHO ist die Effizienz da wohl nicht gerade berauschend - die B580 hat ja eine TDP von 190W. Bestenfalls dürfte man da effizienzmässig etwa das Niveau der RX 7600 erreichen (ausser bei RT da wird man deutlich besser abschneiden). Von der Effizienz einer RTX 4060 ist man da aber weit entfernt (und auch gegen Blackwell und Navi 4x dürfte es nicht besser aussehen). Aber klar, effizienter als der Vorgänger ist die allemal.

Nur 1x8Pin benötigt
Ordentlich OC Headroom laut Intel ( +10-15% )

Ehrlich gesagt sehe ich nicht wie das zusammen gehen soll wenn der Default schon 190W TDP ist. Ich schätze mal für OC braucht man die Modelle mit 2x8 Pin (oder 8+6 Pin wenn das jemand baut)

Daredevil
2024-12-08, 23:38:03
Ich habe ja auch nicht mehr Infos als du, im Interview hat der Intel GPU Dude allerdings ( relativ glaubhaft ) gesagt, dass die Karte zwar ne TDP von um die 190w hat, die in der Real World allerdings relativ selten ausgereizt werden und demnach Headroom nach oben vorhanden sein soll. Und auch wenn sie hier nicht Best in Slot ist, was ich auch nicht erwarte, ist jeder Schritt nach vorne was gutes, damit eine Alternative wie z.B. eine gebrauchte 1080ti weniger Sinn macht.

1x8Pin und PCIe Slot ergeben ja 225w pi mal Daumen, also wäre hier sogar etwas Spielraum, mh?
Ob man allerdings 200w+ mit einem Dual Slot Kühler kühlen will, das bezweifle ich. Grüße gehen raus an die Radeon VII Besitzer. :D

Edit: Wobei, das passt eigentlich fast. 190w +20% = 228w. Also alles was 8-Pin und Slot leisten können.
Aber natürlich sind für OC die dickeren Kisten spannender, wenn sie nicht ungemein mehr kosten.
https://s20.directupload.net/images/241208/fdhuuh5g.png

Apropo Interview
ACOlBthEFUw

mczak
2024-12-09, 03:23:18
1x8Pin und PCIe Slot ergeben ja 225w pi mal Daumen, also wäre hier sogar etwas Spielraum, mh?

Theroetisch schon aber heutzutage geht eigentlich kein Hersteller mehr ans absolute Limit, zumindest nicht beim Saft den man vom pcie-Slot bezieht (früher gab's ja Karten die waren auch locker drüber). Ausserdem werden IIRC die 3.3V für die Stromversorgung bei GPUs kaum noch genutzt - die 12V Schiene allein beim pcie x16 Slot ist auf 66W limitiert. Sehr viel Spielraum würde da also nicht bleiben.

Altehardware
2024-12-09, 05:11:47
So hab das video gesehen daraus lerne ich das arc eine fp16 arch ist und die Auslastung um grob 30% gestiegen ist vs alchemist
Da die Auslastung in alchemist grob 65-70% per clock =ipc beträgt, hat intel es geschafft die ipc auf grob 1 zu bringen
Das ist beachtlich bedenkt man das amd es nie geschafft hat die terrascale arch die auf fp16 basiert über 40% load zu bekommen
Das waren noch dx9 Zeiten wo es wenig compute gab. und das meiste in Datenstau endete Sprich cpu limits.

Demzufolge wird der Test der b580 am Donnerstag interessant.
Womit ich klar sage zwischen rx6650xt und rx7600xt die perf. einordne
Die Treiber sind es die unklar sind.

E39Driver
2024-12-09, 09:15:11
Erste B580 Karten ab 319€ gelistet. https://www.computerbase.de/news/grafikkarten/erste-euro-preise-intel-arc-b580-ab-319-90-euro-als-custom-design-gelistet.90575/

Jetzt mal absolut wertfrei. Für den Preis zum Sammeln oder für das technische Interesse zum Experimentieren, absolut kein Thema, kann man kaufen.

Aber guten Gewissens diese Karte jemanden für ein Einstiegs-Gamingsystem empfehlen sehe ich nicht. Eine Radeon 6750XT kostet gleich viel und dürfte ein gutes Stück schneller sein, bei identisch viel Speicher. Eine Geforce 4060 kostet etwas weniger und dürfte etwas langsamer sein, bietet dafür aber ein ziemliches rundum sorglos Paket. Radeon wie Geforce eint aber das sie auch sämtliche Alte-Titel und Indie-Titel sowie neue Titel auch Day-0 fehlerfrei spielen können. Das woran Intel Arc zumindest in der bisherigen Generation Treiberseitig viel zu oft gescheitert ist, um wirklich eine Empfehlung für technisch wenig affine Käufer zu sein.

MSABK
2024-12-09, 09:20:40
Es kommt ja ständig Treibernachschub seitens Intel. Die haben denke ich schon einen guten Satz nach vorne gemacht.

Shink
2024-12-09, 10:02:09
Jetzt mal absolut wertfrei. Für den Preis zum Sammeln oder für das technische Interesse zum Experimentieren, absolut kein Thema, kann man kaufen.

Aber guten Gewissens diese Karte jemanden für ein Einstiegs-Gamingsystem empfehlen sehe ich nicht. Eine Radeon 6750XT kostet gleich viel und dürfte ein gutes Stück schneller sein, bei identisch viel Speicher. Eine Geforce 4060 kostet etwas weniger und dürfte etwas langsamer sein, bietet dafür aber ein ziemliches rundum sorglos Paket.
Eine 8GiB Einsteigerkarte wie die 4060 ist kein Sorglos-Paket.
Ansonsten stimme ich dir zu. Man kann darauf vertrauen, dass Intel weiter so fleißig an den Treibern dreht (die brauchen sie ja auch für die IGPs) und man überhaupt kein Problem hat in ein paar Monaten. Solange man sich preislich zwischen RX6700XT und RX7700XT bewegt, würd ich die Intel aber nicht empfehlen (außer man hat Probleme mit dem Verbrauch der AMD-Karten).

dildo4u
2024-12-09, 10:06:45
Ich würde gerne neue Test sehen aber wenn XESS deutlich besser auf Intel aussieht ist es das Verkaufsargument.
FSR hat gerade auf Low End Karten massiv Probleme da man oft von niedrigen Auflösungen hoch skaliert.

vinacis_vivids
2024-12-09, 10:22:59
B580 12GB muss sich noch zeigen in Benches. Die Einsteigerkarte erweckt doch Interessen.

Gegner sind RX6750XT 12GB / RX6700 10GB und RX 7600 8GB sowie RTX4060 8GB und RTX3060 12GB und Arc750 8GB aus eigenem Hause.

Schon 6 Karten, die sich in diesem Preisbereich von 250-320€ tummeln. Wird sehr umkämpft sein.

mocad_tom
2024-12-09, 10:53:32
Asrock Arc A770 OC 16GB für 339 bei Amazon

Und von 12GB auf 16GB kann man halt doch noch ein paar schönere LLM reinladen.

https://geizhals.de/asrock-arc-a770-phantom-gaming-16gb-oc-a2989478.html?hloc=at&hloc=de

Bobduffy macht da ein paar richtig nette Dinge mit den Arc Grafikkarten.
(ComfyUI / Fooocus / AI Playground)
Und jedes GB VRAM ist wertvoll und hilfreich.

dildo4u
2024-12-09, 11:01:44
Geekbench Vulkan legt deutlich zu Open CL nicht.


https://videocardz.com/newz/intel-arc-b580-battlemage-gpu-opencl-vulkan-performance-leaks-out-9-to-30-faster-than-a580

E39Driver
2024-12-09, 11:35:18
Eine 8GiB Einsteigerkarte wie die 4060 ist kein Sorglos-Paket.
Und da widerspreche ist. Ja eine 4060 knausert unnötig am Speicher, ist richtig. Auch das es mittlerweile Games gibt, die diese 8GB in höheren Detailstufen und Auflösungen sprengen, ist auch richtig.

Aber letztlich reden wir hier von günstigen Einsteigerkarten, die auf die Zielauflösung 1080p und mittlere bis hohe Details hin gekauft werden. Und dafür wird auch die 4060 noch die nächsten 4 Jahre ausreichend sein. Erst dann kommt die neue Konsolengenerations und die Xbox-One-S als Minimum fällt raus

dildo4u
2024-12-09, 11:47:00
3060 ist kaufbar so lange sie verfügbar ist.
Genug Rechenleistung und Vram damit man immer optimale Konsolen Settings fahren kann.

foOQHxKQDaU


XYZyai-xjNM

mboeller
2024-12-09, 12:12:13
Und da widerspreche ist. Ja eine 4060 knausert unnötig am Speicher, ist richtig. Auch das es mittlerweile Games gibt, die diese 8GB in höheren Detailstufen und Auflösungen sprengen, ist auch richtig.

Aber letztlich reden wir hier von günstigen Einsteigerkarten, die auf die Zielauflösung 1080p und mittlere bis hohe Details hin gekauft werden. Und dafür wird auch die 4060 noch die nächsten 4 Jahre ausreichend sein. Erst dann kommt die neue Konsolengenerations und die Xbox-One-S als Minimum fällt raus

hmm ... nö


Das neue Spiel 'Indiana Jones und der Große Kreis' zeigt einmal mehr, dass Grafikkarten mit begrenztem VRAM für aktuelle und zukünftige AAA-Titel nicht mehr geeignet sind. Besonders betroffen sind 8-GB-Grafikkarten wie die RTX 4060 und RX 7600, die selbst in 1080p keine flüssigen 30 FPS erreichen.


https://www.notebookcheck.com/Todesurteil-fuer-GPUs-mit-weniger-als-12-GB-VRAM-Indiana-Jones-und-der-Grosse-Kreis-ueberfordert-Grafikkarten-wie-RTX-4060-Ti.929027.0.html

Shink
2024-12-09, 12:44:34
Aber letztlich reden wir hier von günstigen Einsteigerkarten, die auf die Zielauflösung 1080p und mittlere bis hohe Details hin gekauft werden. Und dafür wird auch die 4060 noch die nächsten 4 Jahre ausreichend sein.
Ich kann mir schon irgendwie vorstellen, dass ein paar Hersteller noch feilen an den Spielen, damit die nicht auf einer mobilen RX4070 mit ebenfalls nur 8GiB VRAM zum weglaufen laufen.
Aber dass in Zukunft immer mehr Spiele bei Auslieferung nicht zu gebrauchen sind, halte ich durchaus für wahrscheinlich - erst recht in den nächsten 4 Jahren. Und somit würde ich für "sorgenfrei" im Moment eher AMD empfehlen als eine 8GiB-Karte von NVidia oder eine Intel-Karte mit Intel-Treibern. Auch wenn mir klar ist, dass FSR 3.1 den gestandenen NVidia-Fans die Tränen in die Augen treibt.

E39Driver
2024-12-09, 15:18:17
Ok lösen wir uns mal von der Diskussion der 8GB 4060, die scheinbar im neuen Indiana-Jones Titel wirklich Probleme macht, wie ich zugeben muss.

Aber angenommen ihr müsst eurem wenig technisch versierten Kumpel einen neuen Einstiegs-Gamingrechner empfehlen mit sehr begrenzten Budget. Welche Gründe sollten hier für die 319€ B580 sprechen, wenn es für das selbe Geld die schnellere 12GB Radeon 6750XT gibt oder auf grüner Seite die von Dildo genannte 12GB 3060? Radeon wie auch Geforce werden im Support keine Probleme machen und spielen jedes alte wie neue Spiel ohne Grafikfehler ab.

So und nun lasst die Arc-Karte auf Treiberseite wohlwollend geschätzt nur in 10% der Titel versagen, dass diese entweder gar nicht starten oder nur mit Grafikfehlern laufen. Ihr wisst aber vorher nicht ob euer Kumpel jetzt oder in Zukunft einer dieser betroffen Titel spielen wird. Wenn ja was wird passieren? Er wird enttäuscht sein und ihr hängt im Supportthema. Und genau aus diesem Grund würde ich guten Gewissens keine Arc-Karte zu diesem Preis empfehlen und wird sich sicherlich auch nicht besonders gut verkaufen. Wenn die Karte hingegen nur 160€ kosten würde, könnte man über diesen doch sehr großen Kompromiss hinwegsehen und die Karte mit entsprechend Aufklärung dabei dann doch empfehlen.

mczak
2024-12-09, 16:03:04
Kann mir kaum vorstellen dass es bei den 319 Euro bleiben wird - ist bei einem MSRP von 259$ doch zu hoch.

dildo4u
2024-12-09, 16:42:13
Die Karte werden mit der Zeit billiger man bekommt A770 für 320€ mit 16GB der EU Preis passt da noch nicht.

Launch Preis waren über 400€.

AffenJack
2024-12-09, 17:41:32
hmm ... nö

https://www.notebookcheck.com/Todesurteil-fuer-GPUs-mit-weniger-als-12-GB-VRAM-Indiana-Jones-und-der-Grosse-Kreis-ueberfordert-Grafikkarten-wie-RTX-4060-Ti.929027.0.html

Die Aussage ist hier aber auch nicht falsch. 8gb Karten laufen auch bei Indi bei Mittel, man muss nur die texturdetails auf Mittel stellen. Dann laufen auch 8gb Karten ordentlich. Es wird ja immer gerne so getan, als wäre das gar nicht spielbar.

mczak
2024-12-09, 19:39:13
Die Aussage ist hier aber auch nicht falsch. 8gb Karten laufen auch bei Indi bei Mittel, man muss nur die texturdetails auf Mittel stellen. Dann laufen auch 8gb Karten ordentlich. Es wird ja immer gerne so getan, als wäre das gar nicht spielbar.
Es läuft ja offenbar selbst mit höchsten Texturdetails ordentlich mit 8GB vram, wenn man denn die Texture Pool Size auf niedrig stellt:
https://www.pcgameshardware.de/Indiana-Jones-und-der-Grosse-Kreis-Spiel-74506/Specials/Technik-Test-Grafikkarten-Prozessor-Benchmark-1460918/2/
Aber klar im Endeffekt wird man da dann natürlich manchmal auch tiefer aufgelöste Texturen zu sehen kriegen - keine Ahnung wie sichtbar das effektiv ist.

Daredevil
2024-12-10, 00:32:26
Ok lösen wir uns mal von der Diskussion der 8GB 4060, die scheinbar im neuen Indiana-Jones Titel wirklich Probleme macht, wie ich zugeben muss.

Aber angenommen ihr müsst eurem wenig technisch versierten Kumpel einen neuen Einstiegs-Gamingrechner empfehlen mit sehr begrenzten Budget. Welche Gründe sollten hier für die 319€ B580 sprechen, wenn es für das selbe Geld die schnellere 12GB Radeon 6750XT gibt oder auf grüner Seite die von Dildo genannte 12GB 3060? Radeon wie auch Geforce werden im Support keine Probleme machen und spielen jedes alte wie neue Spiel ohne Grafikfehler ab.

So und nun lasst die Arc-Karte auf Treiberseite wohlwollend geschätzt nur in 10% der Titel versagen, dass diese entweder gar nicht starten oder nur mit Grafikfehlern laufen. Ihr wisst aber vorher nicht ob euer Kumpel jetzt oder in Zukunft einer dieser betroffen Titel spielen wird. Wenn ja was wird passieren? Er wird enttäuscht sein und ihr hängt im Supportthema. Und genau aus diesem Grund würde ich guten Gewissens keine Arc-Karte zu diesem Preis empfehlen und wird sich sicherlich auch nicht besonders gut verkaufen. Wenn die Karte hingegen nur 160€ kosten würde, könnte man über diesen doch sehr großen Kompromiss hinwegsehen und die Karte mit entsprechend Aufklärung dabei dann doch empfehlen.
Die Realität ist, es gibt keine perfekte 300€ Karte für FHD+, egal ob AMD, Nvidia oder Intel. Wie so immer im Leben gibts Vor- und Nachteile und Intel ist als Underdog eher auf der Software Seite, das muss jedem wirklich bewusst sein. Das 10% von Spielen allerdings nicht laufen sollen.... davon höre ich eher weniger. Ganz im Gegenteil sind Spezis von der PCGH/CB eigentlich ganz zufrieden mit der Entwicklung und selten spricht man heute vom kompletten Versagen der Karte. Das ist kein GeForce 3 und Radeon 8500 Vergleich imho. Mit Alchemist hat das vielleicht besser gepasst.

------

Wie dem auch sei, wir werden sicherlich auch schon vor dem Launch Infos haben, denn manche haben die Kiste schon geliefert bekommen. ;D
( Sofern der Treiber verfügbar ist... )

First Intel Arc B580 “Battlemage” GPU ships to gamer before launch
https://videocardz.com/newz/first-intel-arc-b580-gpu-ships-to-gamers-before-launch

mocad_tom
2024-12-10, 08:36:05
Ob es vielleicht reicht, wenn man in der inf-Datei die im Geräte-Manager angezeigten PCI-IDs hinzufügt.

So habe ich früher immer für Laptops die Grafikkarten-Treiber von nvidias Homepage auf die Laptops draufinstalliert, wo es ohne Mod geheissen hat, man soll sich die Treiber vom Laptophersteller besorgen.

Daredevil
2024-12-11, 02:00:22
Wer Lust hat für Early Adopter Preise, kann bereits zuschlagen bei Mindfactory und Co.
https://s20.directupload.net/images/241211/b9mhtqeo.png

Bei NewEgg in den USA sind Custom GPUs gelistet für nur 10$ über der Limited Edition.
Entweder wollen uns die Händler verarschen, oder wir als Europäer werden verascht. :D
Inkl. MWSt kommt man zwar auf um die 300€, aber ob die extra 10% nun echt sein müssen? Naja.

Shink
2024-12-11, 08:43:39
Naja, so eine Gunnir ist auch super exotisch in Europa.

Exxtreme
2024-12-11, 08:55:28
Interessanter ist, dass diesmal mehr Hersteller mitmachen. Bei Alchemist war es glaub fast nur Asrock, die was gemacht haben.

Pirx
2024-12-11, 09:09:36
LOL da kauft man ja die Katze im Sack. Was für ein besch..eidener "Launch". Das wichtigste, nämlich freie Tests kommt als letztes. Aber was will man von Intel erwarten.

davidzo
2024-12-11, 09:12:55
Von Gunnir war doch die erste Karte die geleakt ist bei Alchemist. Und Asrock und Acer kamen ebenfalls zum Launch heraus. Sparkle kam in der Tat etwas später erst mit den eigenen Modellen.


Es gibt keine neuen OEMs für Battlemage die nicht auch schon bei Alchemist dabei waren. Von Acer ist noch nichts gelistet, aber angekündigt. Immerhin sind auch bisher keine abgesprungen.

-

Exxtreme
2024-12-11, 09:19:09
LOL da kauft man ja die Katze im Sack. Was für ein besch..eidener "Launch". Das wichtigste, nämlich freie Tests kommt als letztes. Aber was will man von Intel erwarten.

Sehe ich nicht als schlimm an. Man kann ja warten bis die Tests da sind. Auf die paar Tage kommt es auch nicht an.

Thunder99
2024-12-11, 09:34:11
LOL da kauft man ja die Katze im Sack. Was für ein besch..eidener "Launch". Das wichtigste, nämlich freie Tests kommt als letztes. Aber was will man von Intel erwarten.
Es wird so laufen wie die Generation davor. Mehr oder weniger gut 😜

Pirx
2024-12-11, 09:44:11
Es wird so laufen wie die Generation davor. Mehr oder weniger gut 😜
Sicher, könnte sogar ziemlich gut werden, mir gings nur um die Abfolge des Launchs.

Loeschzwerg
2024-12-11, 09:54:35
Die 3-4 Tage bis zum offiziellen Release sind jetzt echt keinen Aufreger wert.

Pirx
2024-12-11, 12:38:53
Aber Kritik, denn sie hätten das auch anders timen können, wenn sie gewollt hätten.

mboeller
2024-12-11, 12:59:43
Aber Kritik, denn sie hätten das auch anders timen können, wenn sie gewollt hätten.

Ist das nicht Absicht? Also nicht nur bei Intel sondern bei allen Herstellern.

Wenn man den gesamten Release auseinanderzieht dann ist man viel öfters/länger in den News wie wenn man eine Karte gleichzeitig vorstellt, Tests gemacht werden und die Karte in den Verkauf startet.

davidzo
2024-12-11, 13:06:51
Aber Kritik, denn sie hätten das auch anders timen können, wenn sie gewollt hätten.

Man kann auch einen Paperlaunch Monate vorher machen und die SKUs dann gestaffelt in den Markt entlassen.

Alles nichts besonderes was wir nicht schonmal erlebt hätten.


✅Ryzen 9000 announcement: June 4th
✅Ryzen 9000 Zen5 Tech Day: July 15th
✅Further Zen5/RDNA3.5 architecture details: July 24th
❌Original Launch Date: July 31st (canceled) ⤵️

Ryzen 5 9600X, Ryzen 7 9700X
🔲Reviews: August 7th
🔲Release (on-shelf): August 8th
Ryzen 9 9900X, Ryzen 9 9950X
🔲Reviews: August 14th
🔲Release (on-shelf): August 15th

y33H@
2024-12-11, 14:09:55
Sicher, könnte sogar ziemlich gut werden, mir gings nur um die Abfolge des Launchs.News, Reviews, Sales - völlig normale Abfolge bei allen Herstellern seit locker nem Jahrzehnt ...

Exxtreme
2024-12-11, 14:19:00
Aber Kritik, denn sie hätten das auch anders timen können, wenn sie gewollt hätten.

Wegen 4 Tagen Versatz würde ich da jetzt keinen Terz machen. IMHO ist es andersrum viel schlimmer: Produktvorstellung und dann wochen- oder monatelang nicht lieferbar.

Mr. Lolman
2024-12-11, 14:32:49
Also im 3DMark Time Spy dürften die schon mal ganz gut laufen: https://www.notebookcheck.com/Intel-Arc-B580-liefert-sich-Kopf-an-Kopf-Rennen-mit-Nvidia-GeForce-RTX-3080-und-AMD-Radeon-RX-7700-XT-laut-geleaktem-3D-Mark-Time-Spy-Benchmark.930768.0.html

aceCrasher
2024-12-11, 14:50:52
Also im 3DMark Time Spy dürften die schon mal ganz gut laufen: https://www.notebookcheck.com/Intel-Arc-B580-liefert-sich-Kopf-an-Kopf-Rennen-mit-Nvidia-GeForce-RTX-3080-und-AMD-Radeon-RX-7700-XT-laut-geleaktem-3D-Mark-Time-Spy-Benchmark.930768.0.html
Klingt schonmal sehr gut. Ich befürchte dass das in Spielen dann aber trotzdem etwas anders aussehen wird. In der Vergangenheit waren die ganzen Intel Xe iGPUs auch immer wahnsinnig stark im 3DMark TimeSpy.

Daredevil
2024-12-11, 15:01:25
Also im 3DMark Time Spy dürften die schon mal ganz gut laufen: https://www.notebookcheck.com/Intel-Arc-B580-liefert-sich-Kopf-an-Kopf-Rennen-mit-Nvidia-GeForce-RTX-3080-und-AMD-Radeon-RX-7700-XT-laut-geleaktem-3D-Mark-Time-Spy-Benchmark.930768.0.html
Tom Petersen sagte in nem Interview, das sie Alchemist auf Benchmarks hin optimiert haben bzw. dort Leistung gemessen haben in der Entwicklung ( What the fuck? ) und sie dies bei Battlemage nun grundsätzlich anders machen wollten, damit die Leistung auch in den Games auf die Straße gebracht werden kann.
Hoffe das stimmt auch wirklich. ;D

Edit: Eigentlich sollten heute Benchmarks und Reviews kommen. 15 Uhr sind offenbar nicht die Startzeit.
Edit2: Ne Moment. Wahrscheinlich Morgen, wenn es am 13. los geht?

vinacis_vivids
2024-12-11, 15:08:08
Probiert mal bitte 8K Crysis was die Karte schafft an Raw power.

davidzo
2024-12-11, 15:50:29
Also im 3DMark Time Spy dürften die schon mal ganz gut laufen: https://www.notebookcheck.com/Intel-Arc-B580-liefert-sich-Kopf-an-Kopf-Rennen-mit-Nvidia-GeForce-RTX-3080-und-AMD-Radeon-RX-7700-XT-laut-geleaktem-3D-Mark-Time-Spy-Benchmark.930768.0.html
Wissen wir ob das auf defaulttakt ist oder mit OC?

Ich sag ja schon lange dass das ein 4060ti Killer ist. Also ich meine die 8GB 4060ti für den normalen Preis knapp unter 400€. Die mag vielleicht im game-Durchschnitt noch 10-20% schneller sein, ist aber wegen der Totalausfälle bei VRAM Mangel keine gute Option. Und die 4060ti 16GB ist eine komplett andere Preisklasse zusammen mit der 7800XT.

Je näher die B580 heran kommt desto besser ist es für uns Kunden, denn dann muss nvidia ggf das 4060ti 16GB pricing nochmal überdenken.

Tom Petersen sagte in nem Interview, das sie Alchemist auf Benchmarks hin optimiert haben bzw. dort Leistung gemessen haben in der Entwicklung ( What the fuck? ) und sie dies bei Battlemage nun grundsätzlich anders machen wollten, damit die Leistung auch in den Games auf die Straße gebracht werden kann.
Petersen sagt viel wenn der Tag lang ist. Und einiges hat sich klar als Propaganda oder schlicht Quark herausgestellt.
Der sagt genau das was du hören willst, auch dass seine Oma Leistungssportlerin ist und du sie für einen Boxkampf haben kannst, nur wenn dabei genug für ihn herausspringt.

Raff
2024-12-11, 17:29:57
Ich sag ja schon lange dass das ein 4060ti Killer ist. Also ich meine die 8GB 4060ti für den normalen Preis knapp unter 400€. Die mag vielleicht im game-Durchschnitt noch 10-20% schneller sein, ist aber wegen der Totalausfälle bei VRAM Mangel keine gute Option. Und die 4060ti 16GB ist eine komplett andere Preisklasse zusammen mit der 7800XT.

Je näher die B580 heran kommt desto besser ist es für uns Kunden, denn dann muss nvidia ggf das 4060ti 16GB pricing nochmal überdenken.

This. Legt schon mal Popcorn bereit, ich empfehle 'nen Eimer.

MfG
Raff

davidzo
2024-12-11, 17:36:03
This. Legt schon mal Popcorn bereit, ich empfehle 'nen Eimer.

MfG
Raff

Nice, wenn Raff das sagt, dann hat das Gewicht :popcorn:
Btw, sehr gutes Vorschauvideo letzte Woche, hatte ich das schon gesagt?

Wäre gut für den Kunden, gut für Hardware-Nerds und gut für Intel! Die genießen langsam Underdog-Status und man gönnt denen nochmal einen Win bevor sie vermutlich in nächster Zeit durch M&A Spezialisten seziert werden.

Daredevil
2024-12-11, 17:59:14
Ich sehs schon kommen, das Raff von der AMD Gang ( Die Nvidia Gang hat eh nur 4090s, denen ist das hier egal ;D ) als Intel Fanboy abgestempelt wird, weil er explizit und völlig zurecht die 12GB hervorhebt bzw. auf zu wenig Speicher hin weißt, weil 8GB einfach Käse sind in der FHD+/WQHD Klasse. :usad:
Am Ende zählen aber Zahlen, Daten und Fakten. Habe ein außerordentlich gutes Gefühl bei dem Launch. Ich bin sehr gespannt auf Morgen und starte dann mal mit PCGH und nicht mit CB! :)

Petersen sagt viel wenn der Tag lang ist. Und einiges hat sich klar als Propaganda oder schlicht Quark herausgestellt.
Der sagt genau das was du hören willst, auch dass seine Oma Leistungssportlerin ist und du sie für einen Boxkampf haben kannst, nur wenn dabei genug für ihn herausspringt.
Hast du da ein explizites Beispiel? I dont know, ich befasse mich erst seit wenigen Wochen genauer mit Intels Sparten und fand Peterson an sich in den 4-5 Interviews/Podcasts, dafür das er von Intel kommt, so offen und sympathisch, wie es seine Rolle erlaubt. Das man Alchemist auf Benchmarks "trainiert" haben soll, findet in meiner Lob Kiste allerdings kein Verständnis, eher Spott. :D
Das gleiche gilt imho auch für Hallock, bei dem schwindet meine Glaubhaftigkeit ihm gegenüber allerdings, je weiter wir uns von "Early December" entfernen. ( Arrow Lake fixes ) :usad:

DerKleineCrisu
2024-12-11, 19:13:55
Sehe ich nicht als schlimm an. Man kann ja warten bis die Tests da sind. Auf die paar Tage kommt es auch nicht an.

vor allem ist die Veröffentlichung morgen also 12.12.24 und da "fällt " auch das Embargo, PCGH hat ja schon angekündigt das es dann auch Brechmark ergebnisse gibt.

mocad_tom
2024-12-11, 19:30:47
Der hier hat schon eine daheim und kein NDA

https://x.com/Crackiioli/with_replies

aufkrawall
2024-12-11, 19:35:47
Petersen sagt viel wenn der Tag lang ist. Und einiges hat sich klar als Propaganda oder schlicht Quark herausgestellt.

Ich würde mal behaupten, viel von dem Kopieren erfolgreicher Nvidia-Features geht auf seine Kappe. Klar ist das ein großes Ego, aber das größte Problem der Architektur-Designfehler von Alchemist kann man ihm wohl eher nicht anlasten.

Hardware-beschleunigtes ML-Upsampling in APUs ist schon richtig geil. Zumindest im Prinzip, die praktischen Tests dazu sind ja eher spärlich.

Mr. Lolman
2024-12-11, 19:45:24
This. Legt schon mal Popcorn bereit, ich empfehle 'nen Eimer.

MfG
Raff

Habt ihr im Launchreview eigentlich auch irgendwelche KI-Tests in petto?

Der hier hat schon eine daheim und kein NDA

https://x.com/Crackiioli/with_replies

Grrr... X ohne Login geht gar nicht. In der guten alten Twitterzeit war das noch besser.

bevor sie vermutlich in nächster Zeit durch M&A Spezialisten seziert werden.

Das glaub ich nicht. Die Aktie ist zwar am Boden und die Schreiberlinge überschlagen sich mit Clickbait Hiobsbotschaften und die Investmentkraken wollen mit ihren KnockOuts noch mal schnell ordentlich abcashen aber insgesamt ist Intel nach wie vor ziemlich gut aufgestellt. Da war die Lage für AMD vor Ryzen schon deutlich kritischer. BTW: ChatGPT ist der Meinung, dass Elon Musk Intel kaufen sollte... ;D

Fusion_Power
2024-12-12, 04:08:12
Also im 3DMark Time Spy dürften die schon mal ganz gut laufen: https://www.notebookcheck.com/Intel-Arc-B580-liefert-sich-Kopf-an-Kopf-Rennen-mit-Nvidia-GeForce-RTX-3080-und-AMD-Radeon-RX-7700-XT-laut-geleaktem-3D-Mark-Time-Spy-Benchmark.930768.0.html
Hat man die Karten mit gleichem TDP gebencht oder spielt das keine Rolle? Die B580 zieht ja 190W, ne RTX 4060 Ti wohl 160W, reguläre RTX 4060 115W. Das sind mir jetzt schon ein paar kleine Unterschiede um sie in solchen Tests zu ignorieren. Ich hoffe dass da in kommenden unabhängigen Reviews näher drauf eingegangen wird.Soll ja fair zugehen.

dildo4u
2024-12-12, 07:07:10
Dann müsstes du 4070 gegentesten was wenig Sinn macht Intel und AMD sind schlechter was Performance per Watt angeht dafür brauchst du keine neuen Tests.

Eine 7600XT vs 4060 Ti

https://www.computerbase.de/artikel/grafikkarten/amd-radeon-rx-7600-xt-test.86711/seite-4#abschnitt_energieeffizienz_in_fps_pro_watt

mboeller
2024-12-12, 07:20:26
H
Grrr... X ohne Login geht gar nicht. In der guten alten Twitterzeit war das noch besser.


yep

3 Postings vom Bauer:

3382punkte mit 3150 MHz (3D-Mark Steel Nomad)

Selbst das AV1 Encoding ist mit der neuen Battlemage ARC schneller geworden. Wir erreichen nun ~85fps bei 4K/60 in bestmöglicher Qualität. Das ist ein Zugewinn von knapp 10fps. Rrrespekt!

Arc A770 16gb vs. B580 12GB (ASRock Challenger) in Shadow of the Tomb Raider maxed Out 1080p ultra Quality XeSS = 70 vs. 91fps with 40w less Power Draw under load. Thats impressive!