Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - DG3 "Battlemage" (Xe2-HPG, Arc B-Series, 2024)
3150 MHz
Warum so wenig? :biggrin:
MfG
Raff
mboeller
2024-12-12, 08:54:32
Warum so wenig? :biggrin:
MfG
Raff
darfst du mich nicht fragen...
Impliziert aber, dass B580 das Taktwunder ist, dass alle vom RDNA3 erwartet hatten
raffa
2024-12-12, 09:05:50
Viel Takt, viel Suff, früher oder später.
Es ist 9e durch, wo bleiben die Tests? :D
dildo4u
2024-12-12, 09:08:14
Es ist nicht 9 Uhr in den USA rechne mal mit 15Uhr.
https://www.computerbase.de/2022-10/intel-arc-a770-a750-limited-test/
Exxtreme
2024-12-12, 09:27:36
Ja, 9:00 Uhr EST = 15:00 Uhr in Deutschland.
mocad_tom
2024-12-12, 09:35:31
Steel Nomad, Shadow of the tomb raider und Assetto
ljzn0mSRaKo
dildo4u
2024-12-12, 10:05:44
Bin gespannt ob der Verbrauch stimmt in Tombraider max 110 Watt.
Daredevil
2024-12-12, 10:24:52
B570 und B580 lieferbar bei Mindfactory für 290/330€.
Wenn die Karte nun wirklich schneller sein sollte als vermutet, rutscht die B570 ja automatisch in die Erwartung der vorigen B580. :D
https://geizhals.de/?cat=gra16_512&xf=10825_12+-+Arc%7E19206_2024%7E6680_A+09+-+Xe2-HPG+%22Battlemage%22+%2F+Gen+12.7
@dildo4u
Dann müsste ja der X3D alleine 160w saugen aus der Wall im CPU limit, ist das realistisch? ^^
Wobei 1000rpm für ne 2Slot Karte an sich schon gut zusammen passt bei voller Auslastung, die hört man ja kaum.
Glaube das OSD ist noch ein bisschen Banane, wäre aber natürlich sehr erfreulich, wenn sie wirklich weit unter 190w liegt, oder das ist halt nur der "Core Verbrauch" ohne RGB drumherum. Die Software sieht bei Cracky schon ganz nett aus, ähnlich zum XTU von der CPU Sparte. Nichts aufregend neues, aber offenbar alles was man braucht. Schaut im ersten Eindruck sehr erwachsen aus, 5 Std bis zum zweiten Eindruck, 24Std bis zum eigenen Eindruck. :ulove:
Warum so wenig? :biggrin:
MfG
Raff
https://media1.giphy.com/media/v1.Y2lkPTc5MGI3NjExZm9pazFwbmplOXU4NHdzazJkYmxoZmU0dmMxZzZhcHpmdGJmaTRnbSZlcD12M V9pbnRlcm5hbF9naWZfYnlfaWQmY3Q9Zw/Z5xk7fGO5FjjTElnpT/giphy.webp
Shink
2024-12-12, 11:00:17
Wobei 1000rpm für ne 2Slot Karte an sich schon gut zusammen passt bei voller Auslastung, die hört man ja kaum.
Glaube das OSD ist noch ein bisschen Banane
Ich dachte schon du meinst mit "OSD" 1Slot-Design. DAS hätte mich tatsächlich interessiert.:D
y33H@
2024-12-12, 11:03:05
Bin gespannt ob der Verbrauch stimmt in Tombraider max 110 Watt.GPU vs Board.
Daredevil
2024-12-12, 11:04:27
Ich dachte schon du meinst mit "OSD" 1Slot-Design. DAS hätte mich tatsächlich interessiert.:D
Vielleicht gibts so ne Pro Möhre ja auch als Battlemage "OSD" ;D
( Bild zeigt die Alchemist Version )
https://s20.directupload.net/images/241212/pwo3dugv.png
B570 und B580 lieferbar bei Mindfactory für 290/330€.
Äääh. :| Ich rieche ein Fallenlassen des Embargos für die B570, welche ja erst in vier Wochen spawnen sollte ...
MfG
Raff
Daredevil
2024-12-12, 11:21:52
Ach, stimmt ja! Die sollte ja eigentlich noch gar nicht kommen. :confused:
Naja gut, kann ja taktische Gründe haben, wegen der CES, AMD und Nvidia und so. Und Weihnachten natürlich, Mitte Januar war eh absolut Käse.
Ooooder....... sie zeigen was anderes auf der CES. Spekulatius. :D
Exxtreme
2024-12-12, 11:24:55
Schade, dass es offenbar keine Variante mit 16 GB VRAM gibt. Die wäre wahrscheinlich ganz nett für Aufrüster. In meinem alten PC habe ich noch eine Radeon RX5700XT. X-D
Schade, dass es offenbar keine Variante mit 16 GB VRAM gibt. Die wäre wahrscheinlich ganz nett für Aufrüster. In meinem alten PC habe ich noch eine Radeon RX5700XT. X-D
Geht mit dem Interface nicht. Aber evtl. kommt eine B570 mit 20 GiB. ;D
MfG
Raff
mocad_tom
2024-12-12, 11:38:19
Ist diese Arc Pro A60 dann eine Version, die man direkt in ein Guest-OS reinklemmen kann?
Bei der "Spiele-GPU" konnte man das nicht.
---------
Warum bekommt dann die B580 keine 24GB?
Ich warte jetzt doch nochmal, die 20GB / 24GB Variante wäre eigentlich für mich die passendere.
Exxtreme
2024-12-12, 11:42:29
Geht mit dem Interface nicht. Aber evtl. kommt eine B570 mit 20 GiB. ;D
MfG
Raff
Man bräuchte eine B590, die fetter ist. ;D
davidzo
2024-12-12, 14:27:59
Ich würde mal behaupten, viel von dem Kopieren erfolgreicher Nvidia-Features geht auf seine Kappe.
Der Typ ist im technical Marketing und hat nichts zutun mit der Entwicklung. Sein Job ist das was das engineering macht bestmöglich zu verkaufen und dabei nicht ganz so dumm auszusehen wie ein "non-technical" Marketeer. Btw, techfirmen haben daher eigentlich 100% technical marketing und zero non-technical. Er ist ein Laberhannes und Folienschubser, der den wirklichen Entscheidungsträgern die Last der Öffentlichkeit und der Interviews abnimmt.
Der kann vielleicht die Farbe der Verpackung und die Namen für XESS entscheiden, aber hat keinen Einfluss auf die Architektur. Dazu ist er auch zu spät in Intels odyssey dazu gekommen. Als er von nvidia rüber kam war DG1 schon taped out und DG2 zumindest Architecture complete.
Sicher kann er vor dem Launch ein wenig Einfluss ausüben auf SKU-Entscheidungen wie Taktraten/TDP limits und das ästhetische Design des Kühlers, aber ich würde nicht überbewerten.
Das glaub ich nicht. Die Aktie ist zwar am Boden und die Schreiberlinge überschlagen sich mit Clickbait Hiobsbotschaften und die Investmentkraken wollen mit ihren KnockOuts noch mal schnell ordentlich abcashen aber insgesamt ist Intel nach wie vor ziemlich gut aufgestellt. Da war die Lage für AMD vor Ryzen schon deutlich kritischer. BTW: ChatGPT ist der Meinung, dass Elon Musk Intel kaufen sollte... ;D
Wieso sonst hat das Board Pat in den Ruhestand geschickt? Wenn man lediglich einen besseren für den Job sucht würde man eine Übergangszeit einplanen und ihn im Amt lassen bis der neue gefunden ist.
Nein, man war mit Pats Grundstrategie nicht einverstanden. Und das einzige bei dem Pat dogmatisch war, ist die Fab-Strategie. Wenn man Fabs verkaufen will, dann nur über Pats Leiche. Also musste er gehen, selbst wenn man noch keinen Ersatz hat.
Wenn man die fabs wirklich behalten will würde das überhaupt keinen Sinn machen ihn unverzüglich rauszuschmeißen bevor man einen Nachfolger hat. Pat wäre eh inw eniger als 2 Jahren 65 gewesen und damit laut Polica ausgeschieden. Wenn man nur einen andere CEO wollte, dann hätte man ihn wenigstens in eine andere Position geschoben und nicht vollständig aus der Company entfernt.
Intel Arc B580 im XXL-Test: Besser als erwartet - müssen sich AMD und Nvidia warm anziehen? (https://www.pcgameshardware.de/Arc-B580-Grafikkarte-280998/Tests/Benchmark-Review-Preis-vs-4070-A770-Limited-Edition-kaufen-1461374/)
:naughty:
MfG
Raff
dildo4u
2024-12-12, 15:06:59
Raster Performance erstaunt mehr als RT :up:
Was für die Klasse deutlich wichtiger ist.
https://i.ibb.co/k67hp8C/Screenshot-2024-12-12-150728.png (https://ibb.co/JF1zN7J)
bildersuche handy (https://de.imgbb.com/)
https://youtu.be/aV_xL88vcAQ?si=X9giELlwGWX2uP8t
Lurtz
2024-12-12, 15:15:40
PCGH klingt ziemlich begeistert, Computerbase deutlich weniger.
Lehdro
2024-12-12, 15:19:59
Irgendwie bin ich enttäuscht. Bei CB gewinnt man in Raster nur äußerst knapp gegen eine 4060, mit RT kommt man knapp an eine 4060 Ti 8 GiB ran - alles in 1440p. In 1080p stinkt man stellenweise richtig ab - uff.
Fazit: Wir haben jetzt 3 GPUs mit je einer dicken Stolperfalle in dem Preisbereich um ~300€ (2x 8 GiB VRAM und 1x wacklige Performance). Ganz toll. Nicht. Pauschalempfehlung bleibt somit die 7600XT, aber auch die nur unter Protest.
Exxtreme
2024-12-12, 15:20:45
Ja, für den Preis sieht das gut aus. Und was Treiber angeht, da könnte es auch noch in Problemtiteln zu einem Boost kommen. Alchemist hatte z.T. 3-stellige Geschwindigkeitszuwächse.
mocad_tom
2024-12-12, 15:22:32
Frage 1:
Das war jetzt die Intel Referenz-Karte und da kann eine Asrock Steel Legend nochmal mit übertakten was drauflegen?
Frage 2:
Wie ist jetzt das mit dem doppelten Speicher?
Selbst wenn die dann 450€ kosten würde - 24GB hätte was feines bei LLMs.
VooDoo7mx
2024-12-12, 15:24:57
SOllte nicht eigentlich auch noch ein größerer Chip mit mehr Cores kommen?
dildo4u
2024-12-12, 15:29:40
PCGH klingt ziemlich begeistert, Computerbase deutlich weniger.
Wukong und Call of Duty stellen ihr ein Bein.
Wukong ist absolut Brutal auch für AMD 6700XT 22fps mit Upsampling in 1080p.
https://i.ibb.co/n7k4qgh/Screenshot-2024-12-12-15-29-57-228-com-sec-android-app-sbrowser-edit.jpg (https://ibb.co/Cb04p1x)
Dino-Fossil
2024-12-12, 15:31:29
Deutlich besserer Auftritt als die erste Generation in eigentlich allen Punkten. Allerdings ist die Performance 2024/25 auch nur Einsteigerniveau. P/L mag zwar geringfügig besser sein, als bei der Konkurrenz, aber richtig absetzen kann man sich dann doch nicht. Max 250€ und sie wäre im aktuellen (leider überteuerten) Preisniveau vielleicht mal wieder ein (wenn auch zaghafter) Preisbrecher.
Aber daran hat momentan kein Hersteller ein Interesse, schätze ich.
Shink
2024-12-12, 16:30:36
Nett. Bei 190W und 1x8 Pin - Anschluss hätt ich nicht gedacht, dass die mehr Strom zieht als eine RX7600XT.
dildo4u
2024-12-12, 16:36:30
In welchem Test bei PCGH sieht sie sehr gut aus
https://i.ibb.co/471w2Cr/Screenshot-2024-12-12-16-35-07-129-com-sec-android-app-sbrowser-edit.jpg (https://ibb.co/L8NDrB7)
https://www.pcgameshardware.de/Arc-B580-Grafikkarte-280998/Tests/Benchmark-Review-Preis-vs-4070-A770-Limited-Edition-kaufen-1461374/4/
Shink
2024-12-12, 16:45:16
Auf der von dir verlinkten Seite die MAXIMUM- und WQHD-Werte (keine Ahnung, ob man da Screenshots verlinken darf wegen Urheberrecht unzo). Dass mit fixen FPS weniger Strom verbraucht wird als von einer langsameren Karte und deshalb der Durschnitt gut aussieht, ist mir klar. Aber man muss auch die Maximalleistung zur Verfügung stellen und Hitze abführen können. RDNA3 ist da ja recht verschwenderisch (meiner Meinung nach - die 7600 ist ja der absolute Bodensatz) und Intel mit der neuesten Karte sieht auch nicht sparsamer aus.
dildo4u
2024-12-12, 19:22:30
MF hat die B570 schon im Verkauf hoffentlich bekommt man passende Treiber.
https://www.mindfactory.de/product_info.php/10GB-ASROCK-Intel-ARC-B570-CL-10GO-Intel-VGA-Card_1604981.html
mczak
2024-12-12, 19:50:21
PCGH klingt ziemlich begeistert, Computerbase deutlich weniger.
Kommt halt auch immer noch auf den Spiele-Mix an, die Unterschiede je nach Spiel zu Nvidia oder AMD sind tendenziell immer noch grösser als zwischen Nvidia und AMD (ausser natürlich beim RT-Vergleich zwischen Nvidia und AMD).
Ich finde die jetzt ganz ok, der Stromverbrauch ist ordentlich (was auch daran liegt dass intel die Karte so gut wie gar nicht pusht, die Spannung bleibt moderat, die GPU klebt am Maximaltakt und die TBP wird häufig nicht erreicht), mal abgesehen von der idle/aspm Geschichte.
Auf jeden Fall ein Fortschritt gegenüber Alchemist der nicht bloss der besseren Fertigung zugeschrieben werden kann.
Allerdings bleibt es dabei der Chip ist deutlich zu gross im Vergleich zu Nvidia oder AMD, architekturtechnisch kann man da offensichtlich nicht mithalten.
Der Preis scheint im Vergleich zur MSRP noch etwas zu hoch, so ein paar Prozent günstiger könnten da die Attraktivität IMHO schon deutlich steigern.
][immy
2024-12-12, 20:06:17
Ja, für den Preis sieht das gut aus. Und was Treiber angeht, da könnte es auch noch in Problemtiteln zu einem Boost kommen. Alchemist hatte z.T. 3-stellige Geschwindigkeitszuwächse.
Diese Sprünge erwarte ich durch neue Treiber nicht mehr, außer in Titeln wo die Performance unterirdisch ist.
Intel hat hier in der Hardware jedenfalls deutliche Fortschritte gemacht. Die speicherbandbreite ist nun auch deutlich besser.
Da wird das top Modell spannend. Ich vermute mal, das es nur 16gb werden an einem 256 Bit Bus. Das ist zwar nicht schlecht aber könnte tatsächlich inzwischen besser sein. Wenn man aber auf 4070 (ti) Niveau kommt, könnte das endlich mal die Preise nach unten korrigieren und die Hardware insgesamt erschwinglicher machen.
Was Treiber angeht, da glaube ich nicht wirklich an größere Gewinne, weil es einfach eine bessere Version der alten Karten ist und es keine komplett neue Architektur ist. Also werdemn sich die Treiberverbesserungen wohl an das Niveau der AMD/Nvidia Treiber "angleichen". Hier mal ein großer, da ein kleiner spring, aber insgesamt nur 3-6% Leistungszuwachs.
Deutlich mehr hoffe ich das die Spiele-Kompatibilität weiter wächst, so das Intel aus der Sicht nicht zurückstecken muss.
Auf der von dir verlinkten Seite die MAXIMUM- und WQHD-Werte (keine Ahnung, ob man da Screenshots verlinken darf wegen Urheberrecht unzo). Dass mit fixen FPS weniger Strom verbraucht wird als von einer langsameren Karte und deshalb der Durschnitt gut aussieht, ist mir klar. Aber man muss auch die Maximalleistung zur Verfügung stellen und Hitze abführen können. RDNA3 ist da ja recht verschwenderisch (meiner Meinung nach - die 7600 ist ja der absolute Bodensatz) und Intel mit der neuesten Karte sieht auch nicht sparsamer aus.
Von was redest du? Fixe FPS was? Die B580 verbraucht weniger als man erwarten durfte von der 190W TBP. Hier für dich: https://youtu.be/kumOux-zD_A?t=549
Oder hier: https://youtu.be/599O7Q4BfaI?t=1220
Fusion_Power
2024-12-12, 22:44:37
Dann müsstes du 4070 gegentesten was wenig Sinn macht Intel und AMD sind schlechter was Performance per Watt angeht dafür brauchst du keine neuen Tests.
Eine 7600XT vs 4060 Ti
https://www.computerbase.de/artikel/grafikkarten/amd-radeon-rx-7600-xt-test.86711/seite-4#abschnitt_energieeffizienz_in_fps_pro_watt
Autsch, das sieht ja öh... "ausbaufähig" aus bei AMD+ Intel was Performance pro Watt angeht. Warum kommen die nicht an Nvidia ran bei der Effizienz? Möglich ist es ja wie man sieht und im iGPU Bereich sind sie ja durchaus effizient.
Und wenn ich nun bei PCGH lese, dass die Arc B580 im Leerlauf locker mal wieder 35 - 37 Watt zieht während ne RTX 4060 da nur 11,5 - 13 Watt braucht, frag ich mich schon ob Intel die ganzen Beschwerden bezüglich idle Verbrauch bei der ersten Arc Generation überhaupt gehört hat.
Oder können sies wirklich nicht besser? :confused:
y33H@
2024-12-12, 23:44:29
Und wenn ich nun bei PCGH lese, dass die Arc B580 im Leerlauf locker mal wieder 35 - 37 Watt zieht während ne RTX 4060 da nur 11,5 - 13 Watt braucht, frag ich mich schon ob Intel die ganzen Beschwerden bezüglich idle Verbrauch bei der ersten Arc Generation überhaupt gehört hat. Oder können sies wirklich nicht besser? :confused:Schön den Kontext weggelassen :rolleyes:
Sind 10W bis 15W mit korrekt gesetzten Settings je nach Auflösung/Hz ... daher weist PCGH auch mit Sternchen drauf hin, dass es bei ihnen iwie nicht geklappt hat.
nairune
2024-12-13, 00:29:09
Sind 10W bis 15W mit korrekt gesetzten Settings
Äh ja, Settings die 98% der User nicht setzen werden (oder können, offenbar läuft es ja nicht immer, selbst wenn man möchte). Schöner Blumentopf :freak:
Fusion_Power
2024-12-13, 01:31:19
Schön den Kontext weggelassen :rolleyes:
Sind 10W bis 15W mit korrekt gesetzten Settings je nach Auflösung/Hz ... daher weist PCGH auch mit Sternchen drauf hin, dass es bei ihnen iwie nicht geklappt hat.
Äh, den Teil habe ich aber schon gelesen, nur nützt das ja nichts wenn NVidia sowas out of the Box hin bekommt, bei Intel man aber irgend welche Windows Settings oder sonst was aktivieren muss und es wie im Artikel beschrieben trotzdem meist nicht wirklich funktioniert. ;)
Kann man nur hoffen dass Intel das alsbald mit neuen Treibern fixt oder es Windows Updates dafür gibt.
robbitop
2024-12-13, 04:36:19
Allerdings bleibt es dabei der Chip ist deutlich zu gross im Vergleich zu Nvidia oder AMD, architekturtechnisch kann man da offensichtlich nicht mithalten.
Der Preis scheint im Vergleich zur MSRP noch etwas zu hoch, so ein paar Prozent günstiger könnten da die Attraktivität IMHO schon deutlich steigern.
Schau auf die Transistoren. Wo Intel vor allem nicht mithalten kann ist die Packdichte. Obwohl man Intels 5nm verwendet ist man bei einer ziemlich rückständigen Packdichte an Transistoren.
mczak
2024-12-13, 05:12:23
Schau auf die Transistoren. Wo Intel vor allem nicht mithalten kann ist die Packdichte. Obwohl man Intels 5nm verwendet ist man bei einer ziemlich rückständigen Packdichte an Transistoren.
Ist schon so dass es beim Vergleich der Anzahl Transistoren ganz gut aussieht. Ich bin aber nicht ganz überzeugt dass da wirklich gleich gezählt wird bei der offiziellen Angabe.
mocad_tom
2024-12-13, 12:03:15
https://www.pcgameshardware.de/Arc-B580-Grafikkarte-280998/Tests/Benchmark-Review-Preis-vs-4070-A770-Limited-Edition-kaufen-1461374/4/
Hier in etwa in der Mitte von der Seite.
Die Battlemage-Karten werden gut runtergetaktet, wenn man ASPM anschaltet.
ASPM ist bei mir immer an, weil ein PC mit Hyper-V und laufenden Guest Images immer total viel zieht(und nur ASPM hilft).
@Raff
Das lässt sich schon erklären, warum ASPM beim AMD nicht geht.
Das hängt vermutlich mit dem LAN-Controller zusammen.
Schalte mal den Realtek ab und stecke eine Intel Netzwerkkarte ein.
X710 oder E810, wenn es 10GB sein soll, ansonsten für 2.5GBit Intel I-226.
https://geizhals.de/intel-i226-t1-lan-adapter-i226t1blk-a3345277.html?hloc=at&hloc=de
Realtek Rtl-8126 und Marvell AQction machen da ziemlichen Schrott.
Und nein man sollte mal die richtigen Schuldigen benennen.
ASPM existiert jetzt seit 2018.
Intel X550 Veröffintlichungsdatum 2016 hat Probleme mit ASPM
Intel X710 Veröffintlichungsdatum 2019 hat keine Probleme mit ASPM
Intel E810 Veröffintlichungsdatum 2020 hat keine Probleme mit ASPM
davidzo
2024-12-13, 12:04:25
Nicht schlecht, die B580. Der CB test scheint ein Ausreißer nach unten zu sein, woanders schneidet sie meist genau die 10% vor der 4060 ab die Intel angekündigt hatte. Damit landet sie zwischen 3060ti, 6700XT und knapp unter der 4060ti 8GB und 7700XT. In RT verliert sie nach wie vor etwas auf nividia, kann aber die 7700XT einholen. Das ist gutklassig und ein gutes Omen für BMG-G31.
Mit +62% XE-Cores und 25% mehr Speicherkanälen und womöglich schnellerem Speicher, sollte eine Performance zwischen 4070 und 4070 super möglich sein, bzw. zwischen 7800XT und 7900GRE. Verbrauch vermutlich auch in Richtung 7800xt (260W).
Das wäre für einen 400mm2 Chip in 5nm gar nicht so übel.
basix
2024-12-13, 12:08:26
Bis auf die Packdichte ist Battlemage "technologie-bereinigt" nicht so weit weg von Lovelace. Das ist mMn schon nicht so schlecht. Man ist etwas weniger effizient, OK, aber nicht extrem abgeschlagen.
Gegen Blackwell und RDNA4 wird es vermutlich schwieriger werden aber es ist sicher ein Fortschritt für Intel.
Celestial könnte evtl. in 18A rauskommen, obwohl man momentan von TSMC N3x spricht (Panther Lake). Wird interessant werden.
Die 12 core Xe3 in PTL wird in N3E gefertigt, die kleinere 4 Xe3 in Intel 3. Das hätte für Celestial allerdings nichts zu sagen, siehe Battlemage und Xe2 in Lunar Lake. Wobei Celestial angeblich gestrichen sein soll. Das müsste für Druid aber nichts heißen.
robbitop
2024-12-13, 13:56:20
Bis auf die Packdichte ist Battlemage "technologie-bereinigt" nicht so weit weg von Lovelace. Das ist mMn schon nicht so schlecht. Man ist etwas weniger effizient, OK, aber nicht extrem abgeschlagen.
Gegen Blackwell und RDNA4 wird es vermutlich schwieriger werden aber es ist sicher ein Fortschritt für Intel.
Celestial könnte evtl. in 18A rauskommen, obwohl man momentan von TSMC N3x spricht (Panther Lake). Wird interessant werden.
Jep wobei bei schwerer RT Last Ada auch BM wegläuft. Aber kein Vergleich zu RDNA3. Ich bin ebenso beeindruckt. Eine moderne Architektur. Es fehlt noch ein wenig Konsistenz wenn man sich die outlier mal anschaut. Aber das ist auch Potenzial für fine wine.
Schade dass Intel zur falschen Zeit das Geld auszugehen scheint. Für mich sieht das relativ zu RDNA3 auf jedenfall nach einem deutlich ernst gemeinterem Versuch aus es technologisch mit Nvidia aufzunehmen.
aufkrawall
2024-12-13, 14:06:50
Die Battlemage-Karten werden gut runtergetaktet, wenn man ASPM anschaltet.
Das hieß es jedoch auch schon mit Alchemist, hat hier mit AM4-Board aber komplett nicht funktioniert. Schon ein großer Fail, dass es diesen Punkt immer noch gibt.
Jep wobei bei schwerer RT Last Ada auch BM wegläuft. Aber kein Vergleich zu RDNA3. Ich bin ebenso beeindruckt. Eine moderne Architektur. Es fehlt noch ein wenig Konsistenz wenn man sich die outlier mal anschaut. Aber das ist auch Potenzial für fine wine.
Schade dass Intel zur falschen Zeit das Geld auszugehen scheint. Für mich sieht das relativ zu RDNA3 auf jedenfall nach einem deutlich ernst gemeinterem Versuch aus es technologisch mit Nvidia aufzunehmen.
Mit Letzterem triffst du das Problem auf den Punkt: Warum muss gerade jetzt, wo die GPUs so reif sind, die ganze Titanic wackeln? Das ist so bitter. Ich habe beim Testen mehrfach meinen fiktiven Hut gezogen, angesichts dessen, was der kleine G21 rupft. Wir brauchen mehr davon!
MfG
Raff
Xe3 sieht übrigens effizienter aus bei der Fläche wenn man Lunar Lake mit Panther Lake vergleicht. 40% mehr GPU Fläche bei 50% mehr Einheiten und einer weniger dichten Fertigung (N3E gegenüber N3B).
Lehdro
2024-12-13, 14:12:05
Mit +62% XE-Cores und 25% mehr Speicherkanälen und womöglich schnellerem Speicher, sollte eine Performance zwischen 4070 und 4070 super möglich sein, bzw. zwischen 7800XT und 7900GRE. Verbrauch vermutlich auch in Richtung 7800xt (260W).
Das wäre für einen 400mm2 Chip in 5nm gar nicht so übel.
Schmink dir das ab, du kriegst niemals die >50% mehr Rohleistung in die 30% mehr Power reingequetscht. Rechne mal realistisch etwas unterhalb 300W für das dicke Ding. Wichtig wäre hier für Intel die Keule nicht zu heftig schwingen zu lassen und auf einen feingranulareren Boost zu achten.
Das ist alles aber auch kein vollkommener Beinbruch, wenn Performance und Preis stimmen.
Ich würde jetzt auch nicht so sehr auf den avg. Verbrauch schauen, gerade weil es einige Games gibt die eigentlich underperformen und man das auch deutlich am Verbrauch sieht. Das kann sich dann mit einem Treiber schlagartig ändern, ohne dass die Effizienz wirklich leidet (Verbrauch und FPS steigen).
mocad_tom
2024-12-13, 14:24:08
https://x.com/__tinygrad__/status/1867270879744229463
Tinygrad kotzt sich gerade über den Software Stack von AMD aus.
We worked with them on benchmarking MI300x. Even their own engineers couldn’t get competitive performance out of it. Intel’s (!) Gaudi 2 (!) performed better.
Bobduffy und Team braucht noch ein bisschen, dann ist aber IPEX / fooocus / ComfyUI / AI Playground ebenfalls für Battlemage bereit.
Kurz vor dem Tag ist die Nacht am Dunkelsten.
aufkrawall
2024-12-13, 14:29:18
Kurz vor dem Tag ist die Nacht am Dunkelsten.
In der Sparte noch am ehesten, weil man da mit Monster-APUs gegen AMD antreten kann. Kann aber leider trotzdem heißen, dass keine dGPUs mehr kommen.
Wirklich bitter, dass die Firma ausgerechnet jetzt arg priorisieren muss.
fondness
2024-12-13, 14:49:36
Schau auf die Transistoren. Wo Intel vor allem nicht mithalten kann ist die Packdichte. Obwohl man Intels 5nm verwendet ist man bei einer ziemlich rückständigen Packdichte an Transistoren.
Die Transistoren sind halt irrelevant, es zählen ausschließlich die mm². Zumal eh nicht gesagt ist, dass die Herstellerangaben vergleichbar sind.
Schmink dir das ab, du kriegst niemals die >50% mehr Rohleistung in die 30% mehr Power reingequetscht. Rechne mal realistisch etwas unterhalb 300W für das dicke Ding. Wichtig wäre hier für Intel die Keule nicht zu heftig schwingen zu lassen und auf einen feingranulareren Boost zu achten.
Das ist alles aber auch kein vollkommener Beinbruch, wenn Performance und Preis stimmen.
Ich würde jetzt auch nicht so sehr auf den avg. Verbrauch schauen, gerade weil es einige Games gibt die eigentlich underperformen und man das auch deutlich am Verbrauch sieht. Das kann sich dann mit einem Treiber schlagartig ändern, ohne dass die Effizienz wirklich leidet (Verbrauch und FPS steigen).
Das sollte problemlos möglich sein. Bei 50% mehr Rohleistung bei der G31 reichen 2650 Mhz aus statt der 2850 Mhz. Das alleine sorgt für einen effizienteren Betriebspunkt. Außerdem sollte man das von der GPU alleine aufrechnen und nicht von der kompletten Boardpower. Das Board und der etwas größere VRAM wird wohl kaum 50% mehr benötigen. Die GPU power alleine liegt bei 120W meine ich. Die 260W sind schon arg hoch angesetzt.
Rafferance ;) Graphics Power ("TGP") liegt bei 140 Watt.
MfG
Raff
Rafferance ;) Graphics Power ("TGP") liegt bei 140 Watt.
MfG
Raff
Also 50 Watt für den ganzen Rest. Dann sollte man eher mit den 140W hochrechnen. Wobei selbst die 140W wohl eher selten erreicht werden.
Sehr selten, das sind absolute Ausnahmen. Timestamp verlinkt:
AuA0K4MmFF0&t=1259s
AuA0K4MmFF0
MfG
Raff
reaperrr
2024-12-13, 15:41:02
Ich versteh die positive Resonanz ehrlich gesagt nicht.
Selbst wenn man den CB-Test ignoriert:
- G21 ist trotz FullNode-Vorteil 30% größer als N33, der in Raster kaum langsamer ist und teils garantiert nur wegen dem schmalen SI verliert.
- G21 ist kaum kleiner, als man es von einem ALC-G10-Shrink auf N4P erwarten würde, wo der ALC-G10 dann durch etwas mehr Takt wohl auch bei der Leistung weitgehend gleichziehen würde.
Im Klartext, der prozessnormierte Fortschritt bei Leistung je mm² tendiert gegen Null.
- Dass ein paar von ALC's Kinderkrankheiten ausgemerzt wurden, kann man bei 2,5 Jahren Entwicklung auch erwarten.
Fakt ist, in Sachen Architekturfortschritt gegenüber dem Vorgänger war selbst RDNA3 ein etwas größerer Sprung in etwas kürzerer Zeit, und RDNA3 wird allgemein - meiner Meinung nach zu recht - als Enttäuschung angesehen.
Intel müsste Fortschritte auf BMG-Niveau alle 18 Monate bringen, nicht alle 30, oder halt deutlich größere Fortschritte machen, als sie jetzt mit BMG gemacht haben.
Im aktuellen Entwicklungs-Tempo fallen sie selbst hinter AMD nur noch weiter zurück.
Der einzige Grund, warum BMG auch nur ansatzweise punkten kann, besteht darin, dass er gegen 2 Jahre alte Architekturen verglichen wird.
Wären RDNA4 und Blackwell im November gekommen, würde sich jetzt keine Sau mehr für Battlemage interessieren, und das völlig zurecht.
Intel kommt nicht näher, sie fallen weiter zurück.
Sie hatten nur Glück, dass die Konkurrenz ihnen dieses kleine Zeitfenster gelassen hat, mehr nicht.
Lehdro
2024-12-13, 16:17:31
Das sollte problemlos möglich sein. Bei 50% mehr Rohleistung bei der G31 reichen 2650 Mhz aus statt der 2850 Mhz. Das alleine sorgt für einen effizienteren Betriebspunkt.
Sicher, das schrieb ich aber auch: Ich gehe davon aus das Intel das Ding keulen wird um definitiv vor einer 4070(S, wenn es klappt) zu landen. Von daher ist der Punkt dann pure Makulatur.
Außerdem sollte man das von der GPU alleine aufrechnen und nicht von der kompletten Boardpower. Das Board und der etwas größere VRAM wird wohl kaum 50% mehr benötigen. Die GPU power alleine liegt bei 120W meine ich. Die 260W sind schon arg hoch angesetzt.
Sind sie nicht. Das Ding verbraucht mitunter 190W, wenn es richtig gefordert wird. Da mit irgendwelchen 1080p Verbräuchen anzukommen ist irreführend. 190 zu 260W sind was, 35% Mehrverbrauch? Wir haben 62,5% mehr Einheiten zu füttern...
aufkrawall
2024-12-13, 16:23:48
Selbst wenn man den CB-Test ignoriert:
Bei PCGH halt deutlich schneller als eine 3060, bei ähnlichem Verbrauch und (bestem?) FG. Schlecht ist das nicht, kann man schon loben.
Sicher, das schrieb ich aber auch: Ich gehe davon aus das Intel das Ding keulen wird um definitiv vor einer 4070(S, wenn es klappt) zu landen. Von daher ist der Punkt dann pure Makulatur.
Dann bleibt es falsch, weil dann die 50% mehr Rohleistung nicht mehr hinkommen.
Sind sie nicht. Das Ding verbraucht mitunter 190W, wenn es richtig gefordert wird. Da mit irgendwelchen 1080p Verbräuchen anzukommen ist irreführend. 190 zu 260W sind was, 35% Mehrverbrauch? Wir haben 62,5% mehr Einheiten zu füttern...
Dann verlinke doch einfach mal die Tests. Wo verbraucht die Karte mitunter 190W? Davon abgesehen ändert es nichts daran, dass eine Hochrechnung vom ganzen Board viel ungenauer wäre.
robbitop
2024-12-13, 19:56:25
Die Transistoren sind halt irrelevant, es zählen ausschließlich die mm². Zumal eh nicht gesagt ist, dass die Herstellerangaben vergleichbar sind.
Irrelevant für das Produkt und den Markt ja. Aber für einen Architekturvergleich schon zumindest interessant. Unter der Annahme dass sie sich bei der Implementierung auch verbessern können.
robbitop
2024-12-13, 20:05:26
Ich versteh die positive Resonanz ehrlich gesagt nicht.
Selbst wenn man den CB-Test ignoriert:
- G21 ist trotz FullNode-Vorteil 30% größer als N33, der in Raster kaum langsamer ist und teils garantiert nur wegen dem schmalen SI verliert.
- G21 ist kaum kleiner, als man es von einem ALC-G10-Shrink auf N4P erwarten würde, wo der ALC-G10 dann durch etwas mehr Takt wohl auch bei der Leistung weitgehend gleichziehen würde.
Im Klartext, der prozessnormierte Fortschritt bei Leistung je mm² tendiert gegen Null.
- Dass ein paar von ALC's Kinderkrankheiten ausgemerzt wurden, kann man bei 2,5 Jahren Entwicklung auch erwarten.
Fakt ist, in Sachen Architekturfortschritt gegenüber dem Vorgänger war selbst RDNA3 ein etwas größerer Sprung in etwas kürzerer Zeit, und RDNA3 wird allgemein - meiner Meinung nach zu recht - als Enttäuschung angesehen.
Intel müsste Fortschritte auf BMG-Niveau alle 18 Monate bringen, nicht alle 30, oder halt deutlich größere Fortschritte machen, als sie jetzt mit BMG gemacht haben.
Im aktuellen Entwicklungs-Tempo fallen sie selbst hinter AMD nur noch weiter zurück.
Der einzige Grund, warum BMG auch nur ansatzweise punkten kann, besteht darin, dass er gegen 2 Jahre alte Architekturen verglichen wird.
Wären RDNA4 und Blackwell im November gekommen, würde sich jetzt keine Sau mehr für Battlemage interessieren, und das völlig zurecht.
Intel kommt nicht näher, sie fallen weiter zurück.
Sie hatten nur Glück, dass die Konkurrenz ihnen dieses kleine Zeitfenster gelassen hat, mehr nicht.
Transistornormiert (was noch gegen die Implementierung aber für die uArch spricht) ist das schon ein Fortschritt ggü. Alchemist.
Und man muss bedenken es ist erst die 2 uArch (die auf Gaming ausgelegt ist). Und es wurde RT und AI deutlich konsequenter implementiert als AMD das bisher gemacht hat.
Aber ja gegen RDNA4 und Blackwell wird es nüchterner aussehen.
Wenn es mit Intels Budget besser aussehen würde wäre schon davon auszugehen, dass sie bei der Implementierung auch besser werden würden (packdichte). Warum soll Intel das nicht irgendwann können. Die haben jahrzehntelang auf Intelprozesse mit nicht den allerbesten Packdichten implementiert- da ist IMO noch Fortschritt zu erwarten.
Kann aber natürlich sein, dass wir Celestial erstmal nur in IGPs sehen werden.
Ein großer Teil der Begeisterung kommt von:
- endlich ein neuer Marktteilnehmer mit konkurrenzfähigem Produkt und moderne uArch (RT/AI)
- endlich gute P/L (wenn auch nur im entry Segment)
- das Potenzial ist klar sichtbar
Wenn das in einem 3D Grafik Technolgie Enthusiasten Bereich nicht begeistert - was dann? :)
davidzo
2024-12-13, 20:19:49
Dann verlinke doch einfach mal die Tests. Wo verbraucht die Karte mitunter 190W? Davon abgesehen ändert es nichts daran, dass eine Hochrechnung vom ganzen Board viel ungenauer wäre.
196W in Metro Exodus im gerade verlinkten Test von Raff z.B. Da ist die Performance aber auch auf 4060ti Niveau.
196W in Metro Exodus im gerade verlinkten Test von Raff z.B. Da ist die Performance aber auch auf 4060ti Niveau.
Ist das ein Spike Wert oder ein Durchschnittsverbrauch über die gesamte Benchmarkdauer? Klar wir können jetzt Rosinen picken: https://youtu.be/A2Plab1uVwk?t=460
120W für die Sparkle und 135W für die LE in Cyberpunk 1440p. Die Karte braucht in der Regel nicht mehr als 160-170W bzw. die GPU alleine nicht mehr als 120-130W. Die Karte ist überraschend effizient muss man schon sagen. Schade, dass sie nicht auf N4P gegangen sind, es wäre noch mehr drin gewesen für eine 2025er Generation. Falls die G31 doch noch kommt ab mitte 2025, wäre das eine Möglichkeit noch mehr rauszuholen mit N4P statt N5.
GerryB
2024-12-13, 22:42:59
Die B580 scheint OCers Darling zu sein und skaliert auch annehmbar damit.
(falls viele Chips das OCen ala guru3D schaffen = 200MHz+ mit 50mV+ und PL+20%)
könnte mir gut vorstellen, das 80MHz+ schon mit der Werksvoltage und PL+5% passen und man dann nur für weitere
120MHz die 50mV mehr ala guru3D braucht = 8x 15MHz/6,25mV wie viele ältere Chips im Curve Editor.
Was der Treiber nicht mag, ist anscheinend zu wenig Powerlimit/Volt, wo dann komische Dinge passieren ala TPU,
wo mit 90mV+ dann Abstürze kamen.
Da hat Intel auf jeden Fall noch Lernpotential, bis man den Boost so beherrscht wie die Konkurrenz.
(solange in Game XYZ die Watt reichen, boosten RDNA3 ganz von Alleine bis zu 80MHz über maxTakt)
][immy
2024-12-13, 23:04:44
Ich versteh die positive Resonanz ehrlich gesagt nicht.
Selbst wenn man den CB-Test ignoriert:
- G21 ist trotz FullNode-Vorteil 30% größer als N33, der in Raster kaum langsamer ist und teils garantiert nur wegen dem schmalen SI verliert.
- G21 ist kaum kleiner, als man es von einem ALC-G10-Shrink auf N4P erwarten würde, wo der ALC-G10 dann durch etwas mehr Takt wohl auch bei der Leistung weitgehend gleichziehen würde.
Im Klartext, der prozessnormierte Fortschritt bei Leistung je mm² tendiert gegen Null.
- Dass ein paar von ALC's Kinderkrankheiten ausgemerzt wurden, kann man bei 2,5 Jahren Entwicklung auch erwarten.
Fakt ist, in Sachen Architekturfortschritt gegenüber dem Vorgänger war selbst RDNA3 ein etwas größerer Sprung in etwas kürzerer Zeit, und RDNA3 wird allgemein - meiner Meinung nach zu recht - als Enttäuschung angesehen.
Intel müsste Fortschritte auf BMG-Niveau alle 18 Monate bringen, nicht alle 30, oder halt deutlich größere Fortschritte machen, als sie jetzt mit BMG gemacht haben.
Im aktuellen Entwicklungs-Tempo fallen sie selbst hinter AMD nur noch weiter zurück.
Der einzige Grund, warum BMG auch nur ansatzweise punkten kann, besteht darin, dass er gegen 2 Jahre alte Architekturen verglichen wird.
Wären RDNA4 und Blackwell im November gekommen, würde sich jetzt keine Sau mehr für Battlemage interessieren, und das völlig zurecht.
Intel kommt nicht näher, sie fallen weiter zurück.
Sie hatten nur Glück, dass die Konkurrenz ihnen dieses kleine Zeitfenster gelassen hat, mehr nicht.
Also da übertreibst du ein wenig. B580 zerreist das A770 Modell ja. Die größeren Modelle folgen ja noch. Das ist schon ein deutlicher Fortschritt. Das hatten wir wann das letzte mal, das in dem Preisbereich etwas das alte größere Modell toppt?
Endlich kommt hier mit im ehemaligen Midrange-Segment wieder ein wenig Konkurrenz auf. Das kann nur gut sein. Allerdings etwas spät, das stimmt wohl.
GerryB
2024-12-13, 23:31:57
Es gab nur keine/zuwenig passende Software/Games/Benchmarks, um den Vorgänger "richtig" zu benutzen/auszulasten.
SN@vlk auf der A770 hatte eigentlich Potential:
mocad_tom
2024-12-14, 14:56:16
https://twitter.com/bobduffy/status/1867407834721530285
AI Playground bald mit B580 Unterstützung
davidzo
2024-12-14, 17:58:24
Ist das ein Spike Wert oder ein Durchschnittsverbrauch über die gesamte Benchmarkdauer? Klar wir können jetzt Rosinen picken: https://youtu.be/A2Plab1uVwk?t=460
Du verschiebst mal wieder die Torpfosten. Die rede war nicht von Average, sondern was die Karte verbraucht wenn sie mal richtig gut ausgelastet ist.
Das Ding verbraucht mitunter 190W, wenn es richtig gefordert wird
Du hast Lehdro nicht geglaubt und ich habe den beweis für seine Aussage verlinkt. Nun lass uns bitte nicht zu einer "spikes-Diskussion" abgleiten. Es ging um die total board power einer G31 770/780er SKU und die wird sich an dem orientieren was er sagt. Also G21 + ca. 50% wenn man einen ähnlichen Takt fahren will (250-290W).
Das die 190W + dann auch mit großartiger performance einher gehen habe ich bereits angemerkt. Das relativiert den Energiebedarf ja weil die Effizienz bei guter Performance eben weiterhin in Ordnung geht.
Du verschiebst mal wieder die Torpfosten. Die rede war nicht von Average, sondern was die Karte verbraucht wenn sie mal richtig gut ausgelastet ist.
Das beantwortet die Frage nicht. Wir sind jetzt bei Rosinen picken, das ist das Problem.
https://youtu.be/A2Plab1uVwk?t=469
In Cyberpunk ist die Karte nicht ausgelastet, willst du das ernsthaft behaupten? Wie viele Spiele soll man dir noch verlinken? Fakt ist, dass die Karte eher selten überhaupt mehr als 170W verbraucht und Fakt ist auch, dass eine simple Hochskalierung vom ganzen Board viel ungenauer wäre.
Du hast Lehdro nicht geglaubt und ich habe den beweis für seine Aussage verlinkt.
Das sind keine Beweise, das ist Rosinen Gepicke.
Es ging um die total board power einer G31 770/780er SKU und die wird sich an dem orientieren was er sagt. Also G21 + ca. 50% wenn man einen ähnlichen Takt fahren will (250-290W).
Es ging Lehdro nicht um einen ähnlichen Takt. Du redest von ähnlichem Takt, er von weniger Takt. Ihr redet aneinander vorbei. Du musst aufpassen. Bei ähnlichem Takt sind wir bei 60% mehr Rohleistung. Es ging um 50% mehr Rohleistung und somit 200 Mhz GPU Takt weniger. All das beachtet er nicht.
Lehdro in seiner undurchdachten Art skaliert stupide ein 50% mehr Rohleistung in 50% mehr power hoch und kommt auf etwas unterhalb von 300W. Das ist ein Unterschied.
Das Board und der VRAM wird nicht 50% mehr verbrauchen und eine niedriger taktende GPU wird eher effizienter laufen. Auch bezeichnend, dass du deine ursprüngliche Einschätzung plötzlich in ein großes Fenster legst, um Lehdro recht zu geben. Du hattest was mit 260W geschrieben, womit ich gar nicht widersprochen hätte.
Jetzt plötzlich legst du deine Einschätzung in ein üppiges Fenster lol. Am besten du machst gleich ein 225W-300W Fenster draus, irgendwo in dem Bereich wird das schon passen.
GerryB
2024-12-15, 01:27:28
Braucht Euch gar net zu streiten, weil evtl. NV die Watts+MHz vorgibt!
https://www.techpowerup.com/329873/nvidia-geforce-rtx-5070-ti-leak-tips-more-vram-cores-and-power-draw
5070Ti 300W-->350W
bedeutet dann, das kleinere Modelle auch mehr ziehen dürfen?!
Inwiefern G31+N48 überhaupt mit mehr Watt dann skalieren, ... mal schauen.
(N48 ist aufgrund der "Größe" vermutlich eeh nicht für >>300W geeignet, G31 schon eher)
2025 kann dann als "heisse" Werksvorgabe neue Rekorde brechen.
dildo4u
2024-12-15, 04:20:18
Logisch alle gehen diesen Weg Chipfläche wird immer teuerer Intel rennt jetzt mit 3 GHz, da wird AMD und Nvidia nachlegen.
https://youtu.be/uNI6jXPBWao?si=IhusEan6UxNRQU9P
GerryB
2024-12-15, 04:44:54
Jo, und der P/L-Geheimtip sind dann die Modelle wo noch 10%+ OCing möglich ist.
Bin mal gespannt ob die B570er eher schlechte Salvage sind, oder genauso gut zu OCen gehen. (x)
und
B580@3,15...3,2GHz mit 5nm = Respekt!
bei CB ohne Spannungserhöhung = muss ein gutes Sample sein
wieviel Volt jetzt PCGH eingestellt hat, 80% ? sagt mir garnix
guru3D hatte +50mV benutzt
(x) CB hat heute ne B570 bei MF kaufen können@260€.
Da gibts nächste Woche sicher was Interessantes zu Lesen.
sollte das wirklich so kommen mít den Watts schießt sich PC-"Gaming" noch mehr ins Abseits vor allem gegen die Konsolen
basix
2024-12-15, 13:45:41
Inwiefern G31+N48 überhaupt mit mehr Watt dann skalieren, ... mal schauen.
(N48 ist aufgrund der "Größe" vermutlich eeh nicht für >>300W geeignet, G31 schon eher)
G31 wird vermutlich bei ~250W landen. Glaube nicht, dass Intel da höher geht. Auch bei der A770 blieb man bei moderaten 225W und die kleine A580 hatte 185W. CB und PCGH zeigen ja, dass B580 in 1080p oftmals eher so 150W und in 1440p ca. 170W benötigt. Erst bei 4K kommt man 190W nahe. G31 ist mMn eine 1440p Karte, deswegen sollten 250W schon reichen. Intel sollte ihren Takt-Algorithmus aber noch verbessern, anscheinend gibt es ziemlich grobe 150MHz Schritte.
N48 dürfte auch bei ~250W landen. Wie du sagst wird dort die Chipgrösse limitieren. Man kann höher gehen aber die mehr Watt sind es hinsichtlich Performance-Steigerung vs. Verbrauch und Kühlbarkeit vermutlich nicht wert.
GerryB
2024-12-15, 14:11:03
Jo, 150MHz Steps wie von CB beobachtet, sind natürlich Murks!
eigentlich ging schon bei älteren Spawas eine genaue Curve mit Taktdomänen
15MHz/6,25mV am oberen Ende
die neueren Spawas können vermutlich auch 6,25/2 mV regeln
falls man denn mit so alten Methoden und festen Werten regeln will
seit den RX 6x50ern gibt es keine festen Einzelwerte mehr sondern Curvenfunktionen
ENKORE
2024-12-16, 18:47:52
Gibt's eigentlich schon Gerüchte Richtung B310? Die könnte für einige Nischen sehr interessant sein (Inferencing auf Videos).
Lehdro
2024-12-17, 15:32:12
Das beantwortet die Frage nicht. Wir sind jetzt bei Rosinen picken, das ist das Problem.
[...]
Das sind keine Beweise, das ist Rosinen Gepicke.
Und dann selber Rosinen picken, weil die eigenen besser schmecken, gell ;)
Es ging Lehdro nicht um einen ähnlichen Takt. Du redest von ähnlichem Takt, er von weniger Takt. Ihr redet aneinander vorbei. Du musst aufpassen. Bei ähnlichem Takt sind wir bei 60% mehr Rohleistung. Es ging um 50% mehr Rohleistung und somit 200 Mhz GPU Takt weniger. All das beachtet er nicht.
Ich gehe sogar schon von mehr Takt aus, aber mindestens vergleichbar. Intel hat ein Ziel vor Augen und muss (noch) durchwachsene Treiberperformance kompensieren.
Lehdro in seiner undurchdachten Art skaliert stupide ein 50% mehr Rohleistung in 50% mehr power hoch und kommt auf etwas unterhalb von 300W. Das ist ein Unterschied.
Ich gehe von ~280W in fordernden Spielen aus, was ~45% mehr Verbrauch bei ~60% mehr Rohleistung entspräche, gute Auslastung vorausgesetzt.
In übrigens demselben Bereich liegt auch der Sprung vergleichbarer Ausbaustufen:
- 4060 -> 4060TI: +45% mehr Rohpower = + 40% mehr TDP (und nicht einmal ein breiteres SI)
- 4070 -> 4080: +65% mehr Rohpower = +60% mehr TDP (diesmal mit SI Steigerung)
In Anbetracht dessen, dass die Karten bei NV meist ihre TDP nicht voll ausschöpfen (zumindest die größeren), kommt das denke ich sogar ganz gut hin mit der Projektion.
Ich denke mir die Zahlen doch nicht aus...
Und dann selber Rosinen picken, weil die eigenen besser schmecken, gell ;)
Auch das ist gelogen. Ich hatte hier Links genannt, die von 26 Spielen eine Board Power angeben. Das nennst du Rosinen picken. Ich kann dir gerne noch einen Link geben und sogar in 1440p, auch wenn das eh sinnlos sein wird bei dir: https://youtu.be/ZVJtIog7Znk
Im Gegensatz zu dir besitze ich eine B580. Im Furmark komme ich auf 140W Chip Power/190W Board Power bei durchgängig 2850 Mhz. Im obigen Link sehe ich nur 1 Spiel, welches annähernd an 140W Chip Power rankommt und das ist The Witcher 3. Kein anderes Spiel geht über 130W. Im Durchschnitt aus den 16 Spielen sind das vielleicht 110-120W würde ich schätzen. Womit die Karte nicht über 160-170W Board power rauskommt wenn überhaupt, genau so wie in den bereits genannten Tests. Teilweise liegt der Chip bei nur 100W.
davidzo
2024-12-17, 19:51:18
Ich weiß auch nicht was "praxisnahe Durchschnittsverbräuche" jetzt hier mit der Total board power zutun haben.
Wenn wir über GPUs reden, insbesondere unreleaste prototypen dann reden wir immer über TBPs oder TDPs. Was anderes ist ohne detaillierte Tests und Gewichtung auch nicht vergleichbar. Die 4090 hat 450W TDP, die 7800XT hat 263Watt und das PCB der 5090 soll wieder für 600Watt ausgelegt sein wie man damals auch von der 4090 behauptet hat.
Es geht hier darum zu schätzen wie die TBP von G31 aussehen wird, nichts mehr. Das bestimmt dann welche Stromstecker das board braucht, wie die VRMs ausgelegt werden müssen und was der Kühler leisten muss.
Irgendwelche "Durchschnittsverbräuche" machen aus einer 2x8Pin Karte keine 8+6P oder 1x8P Karte oder aus einem 8Phasen design keine 6 Phasen.
Die Effizienzdiskussion ist eine komplett andere Chose und sollte man lieber auf nach den ersten Tests verschieben. Battlemage ist hier bisher schonmal nicht schlechter als AMD, im Gegenteil. Bei B580 sieht man ja dass es weiterhin Auslastungsschwankungen gibt und die Karte auch mal wesentlich weniger verbraucht und damit im Schnitt effizienter ist als N33. Geringe Auslastung gibt es bei AMD und nvidia zwar auch, aber nicht in dem Maße wie bei Intel.
mczak
2024-12-17, 21:49:41
Die Effizienzdiskussion ist eine komplett andere Chose und sollte man lieber auf nach den ersten Tests verschieben. Battlemage ist hier bisher schonmal nicht schlechter als AMD, im Gegenteil.
IMHO ist das so nicht korrekt. B580 mag effizienter als die RX 7600XT, aber das dürfte leider nicht auf die Architektur zurückzuführen sein, sondern schlicht daran dass intel die Karten nicht so weit über die Kotzgrenze pusht wie AMD. Der Maximaltakt (und damit auch die Maximalspannung) ist eben derart tief angesetzt dass man dann die TBP oft nicht erreicht - das hilft natürlich bei der Effizienz enorm. Bei der RX 7600XT geht auch so gut wie gar nichts bei OC, weil die eben im Gegensatz zur B580 schon mit maximalem Factory-OC kommt.
vinacis_vivids
2024-12-17, 22:16:17
https://www.techpowerup.com/review/sapphire-radeon-rx-7600-xt-pulse/42.html
Die einfach Pulse 7600 XT macht 2,76Ghz factory und 3,05Ghz im OC.
Das sind Plus 10,5% beim Takt. Also für günstiges 6nm schon ziemlich gut.
Irgendwie da einen Vorteil für Intel hinzudichten halte ich bei 5nm Vorsprung im Low-End für sehr gewagt.
Mit N4P hätten sie die B580 vielleicht mit 3 Ghz default bringen können. Eine recht simple Erhöhung auf 3.1 Ghz braucht so viel mehr nicht: https://youtu.be/eHF8OE_mnto
Falls eine G31 noch kommt später in 2025, wäre N4P wünschenswert. Intel bezieht eh schon N4P für die ARL-H iGPU nächstes Jahr.
Atlan2101
2024-12-19, 02:25:53
@ryan
Auch ohne N4P lässt sich die B580 auf 3100Mhz übertakten und den Speicher von 19Gbit/s auf 20 Gbit/s. Das Powerlimit habe ich bei dieser Karte auf die maximal möglichen 108% erhöht, wieviel das in Watt ist habe ich noch nicht herausbekommen. Die Einstellungen werden übernommen und stehen bei jeden Neustart wieder zur Verfügung.
Die Karte bringt mit diesen Einstellungen bei mir in Hogwarts Legacy ein plus von 2-4 Fps bei einer Takterhöhung von 250Mhz das selbe bei 3DMark.
Ich verwende übrigens die selben Einstellungen wie in den Video.
Default läuft die STEEL LEGEND B580 mit 2850Mhz und wird max. 66° warm.
Das ganze sitzt auf einen MPG X670E Carbon, der Prozessor ist ein Ryzen 7 5700X.
Ich hatte vorher die A770 16GB die mit einen Powerlimit von 252W auf 2500Mhz übertaktet war, mit leicht besserer Leistung verbraucht die B580 bei meinen Spieletests ca. 100-130W weniger als die A770.
In Fuhrmark schafft die B580 nur noch 2900Mhz bei einen Verbrauch von 228W.
mocad_tom
2024-12-21, 22:57:06
https://github.com/intel/AI-Playground/releases/tag/v2.0.0a-preview
Das neue AI Playground wurde released mit Unterstützung für die Battlemage dgpus
mocad_tom
2024-12-23, 18:28:17
https://game.intel.com/us/stories/ai-playground-2-0-with-support-for-intel-arc-b-series-gpus/
Ich bin gerade ein bisschen am Durchsuchen, was so alles neues geht. Das Flux1 Schnell ist schon gar nicht schlecht, das macht echt spaß.
mocad_tom
2024-12-29, 10:46:08
https://x.com/harukaze5719/status/1873270544281550959
Raff wusste das schon am 12.12.
Jetzt auch ein twitter leak passend dazu
Battlemage wird mit 24GB kommen.
davidzo
2024-12-29, 11:43:20
Klingt erstmal toll, denn bisher braucht man mindestens ne 3090 um ein bisschen mit den aktuellen Modellen herum zu spielen.
Allerdings spricht 24Gb eben für 192bit, also weiterhin BMG G21.
Das wäre ein Hint dass ACM G31 wohl nicht mehr kommt, denn diese Karte mit wesentlich höherer Rohleistung und 32GB wäre die wesentlich bessere Wahl für Tüftler und programmierer. Quasi eine 'poor mans' 5090.
Eine 32GB GPU unter 800€ würden derzeit viele sofort kaufen. Das erklärt auch dass der Gebrauchtmarkt an 3090s sehr stabil ist und nicht wirklich zum derzeitigen Leistungsgefüge von GPUs passt.
Schade, ich hatte gehofft das G31 quasi ein auf einem G21 shrink + erweitertem XE-Corecount basiert. Also in N4 und mit dem Packdichtenproblem von G21 gelöst und etwas höheren Taktraten. Damit könnte man AMDs 9070 und Nvidias 5060 & 5070 gefährlich werden.
robbitop
2024-12-29, 11:52:39
Ginge nicht auch 256 bit mit diesen neuen Bausteinen mit ungerade Anzahl an Layers?
basix
2024-12-29, 11:57:44
Mit GDDR6 klappt das nur mit 192 / 384bit, wenn man nicht sowas krummes wie die Xbox macht.
Für mich gibt es da drei Möglichkeiten:
- G21 mit Clamshell für "AI-Folks"
- G31 mit 192bit (Salvage) für "AI-Folks" und professionelle Anwenungen
- G31 unterstützt GDDR7 (und evtl. optional GDDR6) und kann auf die 24Gbit GDDR7 Chips setzen. Speicher und Bandbreite, das lieben die "AI-Folks" ;)
Wenn ich raten müsste:
Die letzte Variante gefällt mir am besten und wegen dem AI-Boom gäbe es auch gute Gründe für diesen Ansatz.
- 32 Xe Cores + XMX Engines
- 256bit GDDR7
- 16...24 GByte
- 28...32 Gbps
- 896...1024 GByte/s
Für professionelle Anwendung kann Intel dann auch noch eine 48 GByte Variante bringen.
Der grosse zeitliche Verzug zwischen G31 und G21 könnte ebenfalls ein Indiz für GDDR7 Support sein, sowie auch PCIe 5.0 x16.
Dazu passt GDDR7 auch besser zu 1.6x Xe Cores und 1.33x SI-Breite verglichen zur B580.
Edit:
Umso länger ich mir das überlege, desto mehr Sinn macht G31 mit GDDR7. Mit 16GB und 32 Xe Cores wäre man in etwa auf RTX 4070 / RTX 5060 Ti 16GB Niveau. Verbrauch wird etwas höher sein aber sonst könnte das eine gute Konkurrenzkarte sein.
24GByte macht für Consumer weniger Sinn aber hey, man hätte in diesem Preisbereich ein Alleinstellungsmerkmal und ML/AI-Applikationen laufen auf Intel ganz anständig.
Einzige Schwachstelle bei Intels XMX-Engines ist fehlender FP8 und allenfalls FP4/FP6 Support. Aber wer weiss, allenfalls bringt G31 noch ein paar entsprechende Updates. Dann ist G31 sehr gut gerüstet für ML/AI-Tasks.
Edit 2:
G31 16GByte mit ~4070/5060 Ti Performance für ~380...400$ MSRP wäre ziemlich OK.
Klingt erstmal toll, denn bisher braucht man mindestens ne 3090 um ein bisschen mit den aktuellen Modellen herum zu spielen.
Allerdings spricht 24Gb eben für 192bit, also weiterhin ACM G21.
Das wäre ein Hint dass ACM G31 wohl nicht mehr kommt, denn diese Karte mit wesentlich höherer Rohleistung und 32GB wäre die wesentlich bessere Wahl für Tüftler und programmierer. Quasi eine 'poor mans' 5090.
Das lässt sich daraus nicht ablesen, weil es den großen Alchemist mit G10 Chip nur für consumer Karten gab. BMG G21 ist der eigentlich Nachfolger von ACM G12 für die Arc Pro A60. G10 für Arc Pro gibt es nicht.
mocad_tom
2024-12-29, 14:08:04
Die 4060ti ist eine 128bit Karte, die gibt es mit 8GB GDDR6 und mit 16GB GDDR6.
Und die B580 Karte ist eine 192bit Karte. Die gibt es jetzt mit 12GB GDDR6 und dann später mit 24GB GDDR6.
Das dies für Gamer keine sinnvolle Konfig ist - geschenkt.
Aber für ComfyUI / Stable Diffusion / AI playground ist es perfekt.
Und an eine Arc B770 glaube ich auch noch nach wie vor.
Arc B770 mit 16GB und mit 32GB wären komplett nette Konfigurationen.
davidzo
2024-12-29, 18:14:25
Ginge nicht auch 256 bit mit diesen neuen Bausteinen mit ungerade Anzahl an Layers?
Die projektierten ungeraden GDDR6 Bausteine haben es nie auf den Markt geschafft. Das kommt erst mit GDDR7. Intel wird wohl kaum eine Extrawurst braten und Bauteile verwenden die sonst im Handel niemand verwerten kann.
Das lässt sich daraus nicht ablesen, weil es den großen Alchemist mit G10 Chip nur für consumer Karten gab. BMG G21 ist der eigentlich Nachfolger von ACM G12 für die Arc Pro A60. G10 für Arc Pro gibt es nicht.
Ah sorry, war verwirrt mit Arc, Alchemist. Ich meinte natürlich Battlemage G21, nicht Alchemist.
- G31 mit 192bit (Salvage) für "AI-Folks" und professionelle Anwenungen
- G31 unterstützt GDDR7 (und evtl. optional GDDR6) und kann auf die 24Gbit GDDR7 Chips setzen. Speicher und Bandbreite, das lieben die "AI-Folks" ;)
Genau, Bandbreite ist enorm wichtig, gerade fürs inferencing, deswegen gibt es ja für frühere inferencingbeschleuniger wie Goya mit DDR4 keine nachfolger mehr sondern man nimmt ebenfalls dicke fette HBM-systeme.
Deshalb halte ich 192bit G31 für extrem unwahrscheinlich.
Und dass die angekündigte Profikarte 24GB haben wird ist ja leider Teil des Gerüchts. Also wohl kein Lebenszeichen von G31.
Umso länger ich mir das überlege, desto mehr Sinn macht G31 mit GDDR7. Mit 16GB und 32 Xe Cores wäre man in etwa auf RTX 4070 / RTX 5060 Ti 16GB Niveau. Verbrauch wird etwas höher sein aber sonst könnte das eine gute Konkurrenzkarte sein.
24GByte macht für Consumer weniger Sinn aber hey, man hätte in diesem Preisbereich ein Alleinstellungsmerkmal und ML/AI-Applikationen laufen auf Intel ganz anständig..
Mach überhaupt keinen Sinn.
GDDR7 ist so teuer dass es sich derzeit nur nvidia leisten kann und will. G31 kann im besten Fall mit N48pro konkurrieren, also der 9070 non-XT. Die kommt aber mit billigen 16GB GDDR6 aus. Wenn Intel nicht weiterhin Milliarden verlieren will, bringt man da keinen Konkurrent mit GDDR7.
Eine GDDR7 32G Karte für Profis während die Gamer GDDR6 16G bekonmmen halte ich auch für ausgeschlossen. Für die geringen Stückzahlen eines obskuren Pro-Modells ist die Verifizierung Gddr7 Speichercontrollers, sowie der Bausteine verschiedener Herstellers zu aufwändig.
Badesalz
2024-12-29, 18:46:57
Das dies für Gamer keine sinnvolle Konfig ist - geschenkt.
Aber für ComfyUI / Stable Diffusion / AI playground ist es perfekt.Wusste garnicht, daß es dafür einen Markt gibt der relevant ist, wenn man schon den PC-Gamer-Markt mittlerweile so in die Nische redet...
Ich schätze es bleibt was es ist. B-Ware.
konkretor
2024-12-29, 20:11:55
Könnte Intel das einsetzen?
https://underfox3.substack.com/p/intel-compression-mount-technology
gefunden hier
https://x.com/Underfox3/status/1866102941393850622
Daredevil
2024-12-29, 22:04:37
Ja moment mal. Wenn 24GB "zu viel" sind fürs Gaming, sind 16GB dann optimal für 4K+, oder was?
Eine 3090/4080 sollte imho schon mindestens 16GB an Bord haben und auch dort könnte es in Zukunft schnell mal krieseln, je nach dem welche Setting gefahren werden.
Also wäre doch ein schnellerer Battlemage mit 24GB und 3090+ Leistung nichts anderes als der gleiche Mittelfinger, den Intel gerade an die 8GB Karten zeigt, oder nicht?
The Future is AI, auch irgendwann im Gaming und daher > Besser haben als wollen.
Also auf 16GB hätte ich bei einer 1000€+ Karte kein Bock. :<
Und wenn man auch "richtige" AI PCs verkaufen will, hat man natürlich keinen Snapdragon, sondern ne dicke GPU mit viel VRAM und wenn Intel in ihren Systemen dann gute Pakete für die Systembuilder baut, nagt man an Nvidias Erfolg.
https://www.youtube.com/watch?v=dx4En-2PzOU
https://s20.directupload.net/images/241229/ys5uylcj.png
User4756
2024-12-30, 09:34:35
Aber für ComfyUI / Stable Diffusion / AI playground ist es perfekt.
Dafür ist die Karte nur zu langsam. Laut Benchmarks liegt die B580 so auf dem Niveau der 4060ti, die es auch mit 16gb gibt. Mehr als 16gb braucht man bei solchen Karten nicht. Da passen bereits alle normalen LLM rein. Die Intel könnte etwas günstiger sein, aber mit einer gebrauchten 4060ti hat man weniger Kompatibilitätsprobleme.
mocad_tom
2024-12-30, 09:55:18
@User4756
Ich mach das gerade mit einem Meteor Lake Laptop und der ist noch langsamer - hat aber 96GB Speicher.
Die Anzahl Tokens ist ziemlich egal, Hauptsache das Model passt in den Speicher.
Ist ein Model größer und es passt in den Speicher, dann dauert das Inferencing ja nicht mal länger.
Es kommt nur insgesamt ein besseres Ergebnis raus.
Edit
Ich hätte nicht gedacht, dass sich die 4060ti 16GB so von der 4060Ti 8GB unterscheidet.
https://www.techpowerup.com/review/nvidia-geforce-rtx-4060-ti-16-gb/3.html
https://www.techpowerup.com/review/palit-geforce-rtx-4060-ti-dual-oc/4.html
DrFreaK666
2025-03-28, 12:24:24
Intel has reportedly canceled its high-end Xe2-based Arc Battlemage "BMG-G31" GPUs which were going to be used in gaming graphics cards.
https://wccftech.com/intel-cancels-its-high-end-xe2-arc-battlemage-bmg-g31-gpus/
Die GPU-Roadmap scheint eine Berg- und Talfahrt zu sein. Zuletzt konnte man lesen, dass G31 kommt. Nun doch nicht ... oder ist das nur eine Latenz bei der stillen Post?
MfG
Raff
Daredevil
2025-03-28, 12:27:52
Kann man imho verstehen und ist auch ein kluger Schritt. Vor 6 Monaten wäre so eine Karte schön gewesen, nun ist AMD mit dem grundsätzlich Feature überlegenen Produkt gekommen und da holt man erstmal nichts mehr in der Kategorie. Eine dicke GPU muss dann auch mit dem dicksten Software Featureset kommen, nur "Raster Leistung" ist heute nicht mehr ausschlaggebend für das Endergebnis.
Ich denke mal sie beobachten AMD hier ganz genau und die haben mit RDNA4 überraschend überrascht und Nvidia überraschend versagt. ^^
Flusher
2025-03-28, 14:59:03
Kann man imho verstehen und ist auch ein kluger Schritt. Vor 6 Monaten wäre so eine Karte schön gewesen, nun ist AMD mit dem grundsätzlich Feature überlegenen Produkt gekommen und da holt man erstmal nichts mehr in der Kategorie. Eine dicke GPU muss dann auch mit dem dicksten Software Featureset kommen, nur "Raster Leistung" ist heute nicht mehr ausschlaggebend für das Endergebnis.
Ich denke mal sie beobachten AMD hier ganz genau und die haben mit RDNA4 überraschend überrascht und Nvidia überraschend versagt. ^^
Man schiesst nicht ein dutzende Millionen Investment einfach in den Wind weil ein Konkurrent früher am Start ist. Das Sales & Marketing team würde trotzdem versuchen die Kuh zu melken, so lange der Business Case positiv ist.
Ich fürchte man liegt meilenweit neben den internen Performancezielen, was entweder auf grundsätzliche Architekturprobleme oder Fertigungsprobleme zurückzuführen ist.
Beides wäre für das ganze dGPU Projekt fatal und stellt es potenziell komplett in Frage.
Daredevil
2025-03-28, 15:29:20
For every Yes, there 100 No's. :)
Ist mir schon klar, das es im Zweifelsfall schmerzt, wenn Pläne nicht aufgehen.
Imho sollte Intels Fußfassung im dGPU Markt kein Sprint sein, sondern ein Marathon und wenn man mit Celestial das grundsätzlich bessere Produkt hat, was auch vielleicht in dem 500$+ Markt wildern kann, wäre hier der Fokus besser als ein doppelter Battlemage, auch wenn ich es natürlich gerne gesehen hätte. Ob ein Marathon in der Situation wo Intel sich aktuell bewegt überhaupt noch möglich ist, steht natürlich auf einer ganz anderen Karte.
Dino-Fossil
2025-03-28, 15:53:01
Man kann immer noch zu einem gewissen Grad über den Preis kommen. Bei den absurden Preisen am GPU-Markt wäre schon ein lediglich dezent niedrigerer Preis als Preisbrecher gefeiert worden (siehe B580) und würde vermutlich trotzdem einen Gewinn abwerfen.
Außer natürlich man ist so weit abgeschlagen, dass man absolut kein Land gesehen hätte. Aber immerhin liegen die Intel Karten bei RT gar nicht so schlecht und XeSS scheint auch einigermaßen ok zu sein - da liese sich durchaus darauf aufbauen.
Daredevil
2025-03-28, 16:30:03
Den Markt mit VC Kapital zu fluten funktioniert super, aber dafür muss es auch VC-Kapital geben. :D
Und nur weil die B580 objektiv für den Kunden gut im Markt positioniert ist und vielleicht auch von Testern "gefeiert" wird, heißt das noch lange nicht, dass sich die Kiste auch gut verkauft. Mal abgesehen davon, dass Battlemage anscheinend nicht unbedingt das margenstärkste Produkt ist, muss es natürlich auch nicht sein, aber da noch einen draufzusetzen könnte taktisch nicht sehr sinnvoll sein. Hoffentlich wird's ein Marathon :usad:
davidzo
2025-03-28, 17:50:31
Die GPU-Roadmap scheint eine Berg- und Talfahrt zu sein. Zuletzt konnte man lesen, dass G31 kommt. Nun doch nicht ... oder ist das nur eine Latenz bei der stillen Post?
MfG
Raff
Ja, Latenz würde ich sagen.
Niemand verknüpft sich selbst gerne mit Fehlschlägen und es gibt daher auch keine Presseankündigungen für sowas. Man erinnere sich an das Cannonlake debakel. Da hat man jahrelang nichts erfahren und letztendlich wurde nach der offensichtlichen internen Cancelung nochmal eine pseudo Cannonlake SKU mit teildeaktivierten Chips gelauncht nur damit man sich nicht vor den Aktionären für das Ausbleiben rechtfertigen muss.
Ich fürchte man liegt meilenweit neben den internen Performancezielen, was entweder auf grundsätzliche Architekturprobleme oder Fertigungsprobleme zurückzuführen ist.
Beides wäre für das ganze dGPU Projekt fatal und stellt es potenziell komplett in Frage.
Weder noch, sondern Softwareprobleme denke ich.
Wenn man sieht wie häufig B580 im CPUlimit hängt, schon mit relativ schnellen mainstream CPUs wie einem 7700x oder 245k, dann wird einem klar wieso man lieber keinen größeren Chip bringt. Bis Q3 '24 dachte Intel vielleicht dass man noch per Software die Kurve kriegt, aber anscheinend hat man eingesehen dass es keinen einfachen Fix gibt.
Und Celestial kommt anscheinend auch eher ein Workaround als eine Lösung. Chester Lam hat bemerkt dass man nun mehr XE-Cores pro SVE verbauen kann. Anscheinend versucht Intel die Auslastung per SVE zu erhöhen, was ggf. den höheren Treiberoverhead bei mehr Alus umgeht. Es macht imo Sinn auch mit Celestial wieder im Einsteiger maximal Midrange-Markt zu bleiben. Den Markt behandelt nvidia stiefmütterlich, die Auslieferungszahlen sind aber in dem Brebereichich zumindest global sehr hoch.Wenn Intel die Fertigung selbst übernimmt bekommt man auch endlich wieder seine Fabs ausgelastet. Wenn der Chip nicht so groß ist bekommt man den yield auch schneller in den Griff. Ich denke Celestial wir dum Kostenoptimierung gehen. Intels GPU-Team muss bald beweisen das sich nach Jahren von Investitionen mit GPUs auch Geld verdienen lässt und Marktanteile gewonnen werden können. Die Density muss mächtig steigen, die Kosten pro Chip deutlich runter.
50% mehr Ausführungseinheiten und 33% mehr Speicherbandbreite als die Arc B580 reicht auch beim besten Willen nicht um mit N48 oder GB205 zu konkurrieren.
Dafür bräuchte man selbst bei perfekter Skalierung mindestens 48 XE-Cores und nicht nur 32. Die B580 ist can halb so schnell wie eine 9070, müsste sie aber überbieten um für die Käufer attraktiv zu sein. Eine 32EU B590 würde also lediglich mit Nvidias 5060 / GB206 und AMDs 9060 / navi44 konkurrieren.
mocad_tom
2025-04-02, 21:32:33
Diskrete GPUs stehen auf dieser Folie
https://x.com/hms1193/status/1907107965645021396
Flusher
2025-04-03, 09:31:47
Diskrete GPUs stehen auf dieser Folie
https://x.com/hms1193/status/1907107965645021396
Was will uns diese Folie eigentlich sagen? AI PC Experience....eine Reihe Endgeräte-Typen UND eine Grafikkarte? Die passt doch irgendwie nicht ganz dazu.
Konnte es in der Keynote auf die schnelle nicht finden, aber die Storyline dazu würde mich interessieren
https://www.youtube.com/watch?v=vqR9UibseME
mocad_tom
2025-04-05, 15:21:19
Man sieht die Folie im Hintergrund nur ganz kurz
Gleich die erste Folie von Jim Johnson
https://youtu.be/zeMdxnI3rY8?t=1661
Intel Arc Battlemage G31 and C32 SKT graphics spotted in shipping manifests (https://videocardz.com/newz/intel-arc-battlemage-g31-and-c32-skt-graphics-spotted-in-shipping-manifests)
Es lebt? :freak:
Raichu meinte vorhin, G31 würde noch kommen. Wäre es nicht sinnvoller, die Ressourcen gleich in eine Xe3 dGPU zu stecken. Die Frage würde ich mir stellen.
genervt
2025-04-21, 12:55:24
Es gibt schon ein Window of opportunity. Wobei sie wieder mal zu spät sind. Ich denke es ist auch für die weitere Entwicklung wichtig, dass sie Erfahrung mit größeren Chips sammeln.
Bei Arc 1 sind sie ka in etliche Skalierungsprobleme gelaufen.
davidzo
2025-04-21, 15:05:29
Wenn dann muss man aber wenigstens mit Navi48 und Gb205 konkurrieren können.
Da reichen die 32 XE Cores und 256bit SI mit 32MB l2 nach bisherigen Gerüchten aber nicht. Man bräuchte schon mindestens eine Verdopplung von BMG G21 um Leistungsmäßig in die richtige Richtung zu kommen. 60% mehr Shader und 33% mehr Bandbreite reicht vielleicht gerade mal um die RTX5060ti zu erreichen. Bei der bisherigen packdichte käme so ein Chip auf über 400mm2 raus. Das wäre wieder eine finanzielle Katastrophe für Intel.
Entweder die Gerüchte sind durchweg falsch gewesen und Intel plant etwas mit 48 oder mehr XE Cores und womöglich mehr Cache oder GDDR7, oder es macht ökonomisch eben kein Sinn mehr die Karte zu launchen. Man müsste die 4060ti eh im preis unterbieten um eine Chance zu haben. Und mit der 5060 konkurriert womöglich auch B580 schon ganz gut über den Preis und Speicher. Wozu einen weiteren Chip der nicht spürbar in einer anderen Klasse liegt?
In derselben Architektur reißen 32XE Cores jedenfalls nichts mehr. Dazu kommt ja auch noch das CPU-skalierungs Bottleneck durch den Treiber.
Entweder es handelt sich also um eine abgewandelte Architektur, Fertigung, Taktrate und nicht mehr Battlemage in TSMC N5 wie bei G21, oder der Chip hat wesentlich mehr als 32 Cores. Am Wahrscheinlichsten ist aber dass er so ist wie die Gerüchte sagen und daher einfach nicht mehr launcht.
Intel ships Battlemage G31 GPUs to Vietnam labs behind past Arc Limited Edition cards (https://videocardz.com/newz/intel-ships-battlemage-g31-gpus-to-vietnam-labs-behind-past-arc-limited-edition-cards)
Übrigens meinte Bionic im Discord, G31 und Celestial dGPU würde definitiv kommen. Es wäre nur nicht sicher, ob es Xe3p oder Xe4 für die Celestial Generation sein wird. Xe3p soll auch für die NVL iGPU kommen. Mit der Architektur soll auch eine big APU geplant sein, genannt NVL-AX.
Hoffen wir, dass das damit nun sicher ist. :up:
Mir fehlen aber noch Taktraten. Dass das Ding trotz weiterhin nur 4.096 FP32-ALUs nett wird, ist sicher, aber derzeit kann man die Leistung nur ganz grob schätzen. Kommt hier wieder 5N zum Einsatz oder etwas Besseres? Falls es weiterhin der Gammelprozess ist, bleibt der Kerntakt wohl weit unter 3 GHz. Eine Arc B580 mal 1,5 (realistische Skalierung) wäre dennoch ein "5060 Ti Killer". Mal sehen, wann mehr droppt ... eventuell schon auf der Computex.
MfG
Raff
Shink
2025-05-02, 13:14:19
Dazu kommt ja auch noch das CPU-skalierungs Bottleneck durch den Treiber.
Je schneller die Karte ist und je mehr Zeit vergeht, desto weniger fatal find ich das.
Ja, so eine 9060XT und 5060Ti könnte schon erreicht werden. Vermutlich dann 16GB VRAM und PCIe x16 zum Preis einer 5060Ti 8GB oder so. Reißenden Absatz findet die wohl nicht aber brauchbar wär sie schon.
DrFreaK666
2025-05-02, 14:21:59
Intel benötigt aber dann auch besseres Upscaling. Die sind aktuell ja nur auf dem dritten Platz.
Schade dass XeSS auf Intel-Karten selten in Vergleichtests vertreten ist
Daredevil
2025-05-02, 14:37:23
Jup, da hängt Intel nun hinten an. Hauptsache sie können mit VRAM Überzeugen, das ist ein easy "Markt move", der nur Geld kostet und Reputation einspielt.
Fühlt sich ein wenig an wie bei dem KI Bereich, alle paar Monate kommt jemand um die Ecke und bringt das bessere Modell. Vor wenigen Monaten war es noch theoretisch DLSS > XeSS > FSR3, nun haben sich Teil 2 und 3 deutlich geflippt.
Apple hat ja auch "Metal FX" als Upscaling Methode vorgestellt, basieren auf FSR3. Die sind nun, mal abgesehen vom Mangel an Einsatzzwecken, komplett hinten. Tech envolves so fast. ^^
Ich sehe den Sinn hinter der Big GPU für den DIY Markt allerdings immer noch nicht, sofern sich nicht mehr ändern als +1.5x Leistung, da muss imho ne Story her, damit der Markt es annimmt. VRAM ist ne gute Story, aber ... eh... Performance ist eine bessere. :D
Wenn Intel aber natürlich wieder hauptsächlich die System Builder für das Q3/Q4 Quartal mit frischer "AI Hardware" aus dem Hause Intel versorgen will, dann soll es wohl so sein. Intel meinte mal in nem Interview, dass die System Builder gerne jedes Jahr neuen Kram haben wollen, damit sie eben auch "neues" verkaufen können. Das ist nicht unbedingt der Qualität der Produkte und schon gar nicht den Leistungssprüngen förderlich... aber wenn es Intel hilft...
Shink
2025-05-02, 14:54:16
da muss imho ne Story her, damit der Markt es annimmt. VRAM ist ne gute Story, aber ... eh... Performance ist eine bessere. :D
Diese Story hatte die Intel GPU-Abteilung doch noch nie. Battlemage ist halbwegs konkurrenzfähig und man kann halbwegs was damit anstellen. Mit 50% mehr Leistung, VRAM und Bandbreite wird das nicht schlechter. Kein Grund, auf Intel umzusteigen; Marktanteil wird immer noch bei ~1% liegen. Den Achtungserfolg der B580 könnte man ausbauen. "Wozu das alles" hat man sich immer schon gefragt bei den Intel-dGPUs
robbitop
2025-05-02, 15:08:18
Intel benötigt aber dann auch besseres Upscaling. Die sind aktuell ja nur auf dem dritten Platz.
Schade dass XeSS auf Intel-Karten selten in Vergleichtests vertreten ist
Wobei selten natives XeSS (also der XMX Pfad) mitgetestet wird. Der soll qualitativ besser sein als der sonst immer getestete dp4a Pfad.
robbitop
2025-05-02, 15:10:15
Apple hat ja auch "Metal FX" als Upscaling Methode vorgestellt, basieren auf FSR3. Die sind nun, mal abgesehen vom Mangel an Einsatzzwecken, komplett hinten. Tech envolves so fast. ^^
Ich meine Apples upscaler ist eigene Technik. MetalFX gibt es als spatiale, als temporale und als NN Variante. Schon eine ganze Weile. Die NN Variante wird auf den NPUs ausgeführt.
Daredevil
2025-05-02, 15:18:41
Ich hatte gerade nur noch dieses Informationsschnipsel im Kopf, über ein Update habe ich bislang noch nicht gelesen.
https://www.golem.de/news/metal-fx-apple-nutzt-amd-fsr3-als-basis-fuer-ki-upscaling-2312-180449.html
Ist aber am Ende auch egal, jährliche Updates haben Vor- als auch Nachteile. In einer sehr schnelllebigen Umgebung kann man hier natürlich fix abgehängt werden. Dafür ist der Sprung auf die neueste Tech immerhin groß, das verkauft sich bestimmt auch besser zur WWDC oder wann auch immer. :D
davidzo
2025-05-02, 15:44:11
Intel meinte mal in nem Interview, dass die System Builder gerne jedes Jahr neuen Kram haben wollen, damit sie eben auch "neues" verkaufen können. Das ist nicht unbedingt der Qualität der Produkte und schon gar nicht den Leistungssprüngen förderlich... aber wenn es Intel hilft...
Lip Bu Tan hat ja angekündigt dass Intel auf ihre Customer hören will, bzw, nur noch customer focused arbeitet. Ich fürchte aber damit meinen die nicht die Endkunden sondern eben genau jene System builder.
Um genauer zu sein sind es die Produktmanager in diesen Unternehmen auf die man nun hören will. Das heißt leider nichts gutes. Denn das sind auch nur BWLer die versuchen mit Marktforschung Trends vorraus zu sagen, was bei dynamischen Märkten einfach nicht hilft bzw. kontraptoduktiv für wirkliche Innovation ist. Produktmanagement ist toll um inventory management auf kampagnen abzustimmen und Produkteinführungen strategisch zu planen, aber nicht um einen Durchbruch bei Performance oder Features zu erreichen.
Unter Krzannich haben die Intel Salesmanager den Ton angegeben.
Unter Gelsinger war Intel eine engineering focused Company geworden. Man hat also mehr gebaut was die Ingenieure für gut hielten. Imo keine komplett falsche Strategie, denn Engineers wissen am ehesten wo die low hanging fruits sind.
Unter Lip Bu Tan wird es jetzt die Customer Relations Abteilung sein die neue Features vordert/Vorschlägt und diese wiederrum vom Produktmanagemen tund Marketing der OEMs und System builder erhält.
y33H@
2025-05-02, 22:34:24
Customer Relations Abteilung? nein, damit sind die tatsächlichen Kunden gemeint - die reichen von den Hyperscalern über Enterprise und Partner/OEMs bis zu KMU ... davon ab ist die Devise der "Customer first" keinesweg neu neu, war schon unter Pat der Fall.
Leonidas
2025-05-03, 09:10:45
https://www.fudzilla.com/media/k2/items/cache/62333ef8b07dae94fde0d5758496ba7d_XL.jpg
Quelle:
https://www.fudzilla.com/news/graphics/60965-chipzilla-s-battlemage-g31-leaks
DerKleineCrisu
2025-05-03, 11:41:39
Eine Arc B580 mal 1,5 (realistische Skalierung) wäre dennoch ein "5060 Ti Killer". Mal sehen, wann mehr droppt ... eventuell schon auf der Computex.
MfG
Raff
Also ich würde mich über eine Arc B770 oder B780 freuen und würde die wie die A770 Kaufen.
Meine 770 macht was sie soll, die Treiber sind besser geworden.
Wäre echt schade wenn Intel nach nicht mal 4 Jahren wieder Aufhören würde.
genervt
2025-05-03, 19:00:07
Also ich würde mich über eine Arc B770 oder B780 freuen und würde die wie die A770 Kaufen.
Meine 770 macht was sie soll, die Treiber sind besser geworden.
Wäre echt schade wenn Intel nach nicht mal 4 Jahren wieder Aufhören würde.
Je nach Preis/ Performance kame ne B770 schon in Frage für mich. Die nötige CPU-Leistung ist vorhanden. Die Marktsituation lässt hier für Intel eigentlich ne Lücke.
Macbeth
2025-05-11, 17:17:57
Auf der Computex 2025 wird Intel vermutlich eine neue Workstation GPU vorstellen. Mit wohl 24GB Speicher.
Lang ist es nicht mehr hin (20.-23. Mai).
Quelle:
https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Intel-Arc-Pro-B60-1472202/
https://www.guru3d.com/story/intel-arc-pro-b60-24gb-battlemage-bmgg21-architecture/ (https://www.guru3d.com/story/intel-arc-pro-b60...architecture/)
Ich bin heute beim Spazieren zufällig dem Raff über den Weg gelaufen.
Eine gute Gelegenheit, als langjähriger 3DC/PCGH-Leser mal etwas zurück zu geben, dies ist mein erster Post :)
Daredevil
2025-05-13, 11:42:13
Unter einem doppelten Battlemage habe ich mir aber was anderes vorgestellt ;D
Intel Arc: Partner soll Grafikkarte mit zweimal B580 und 48 GB planen
https://www.computerbase.de/news/grafikkarten/intel-arc-partner-soll-grafikkarte-mit-zweimal-b580-und-48-gb-planen.92607/
Ich hatte gerade nur noch dieses Informationsschnipsel im Kopf, über ein Update habe ich bislang noch nicht gelesen.
https://www.golem.de/news/metal-fx-apple-nutzt-amd-fsr3-als-basis-fuer-ki-upscaling-2312-180449.html
Ist aber am Ende auch egal, jährliche Updates haben Vor- als auch Nachteile. In einer sehr schnelllebigen Umgebung kann man hier natürlich fix abgehängt werden. Dafür ist der Sprung auf die neueste Tech immerhin groß, das verkauft sich bestimmt auch besser zur WWDC oder wann auch immer. :D
Ich knüpf genau da mal an und ich muss sagen, dass Intel auf den 2. Blick strategisch wirklich alles richtig gemacht hat. Wenn sie Finanzierung beibehalten, wird das was, die dürfen ihre Strategie nicht mit Finanzmangel unterminieren in dem Bereich, dann werden sind stratigisch in ein paar Jahren Erfolg haben.
1.) Alchemist war ein alles in einem Versuch, lass nichts weg, implementiere auch unnötigts, um auf jeden Fall Performance zu bekommen, sogar überflüssige Speicherbandbreite, um keine Limits zu erreichen deswegen. Für ein Erstlingswerk, das sowieso nicht konkurrenzfähig sein wird, ist das ein guldrichtiger Ansatz gewesen. Auch die Wahl des schlechteren N6 war ne gute Wahl, denn die paar % für N5 hätte dem Chip eh nichts gebraucht, der Treiber war ja eh nicht fertig. Aus strategischer Sicht war Alchemist perfekt.
2.) Battlemage, versuche das Design zu verschlanken, gleichzeitig die Auslastung zu erhöhen und die Takte zu erhöhen, sie haben 2 neue, unterschiedliche Fertigungsprozesse genutzt, also Prozessflexibilität der Architektur, sie verballern nicht so viel Speicherbandbreite und bleiben bei einer kleinen Produktionsmenge, um das Risiko der Kostenexplosionen zu vermeiden. Das Geld für das Design ist eh weg und das Ding war ja auch nicht als konkurrenzfähiges Produkt zu erwarten, dafür schlägt er sich allerdings recht gut. Man wird das Design jetzt nutzen, um die Treibereffizienz weiter zu erhöhen. Wieder: Strategisch alles richtig gemacht.
3.) Celestial, erhöhe die Iterationsgeschwindigkeit, da selbst kleine Änderungen im Design immer noch eine viel höhere Wirkung haben können als bei AMD und NV und man somit auch mit zusätzlichen Designerfahrung, schneller aufholen kann. Auch diese Generation muss man finanziell von vornheirein abschreiben, auch das ist eine Generation für die Selbstentwicklung.
4.) Ich wette, dass Druid das wirklich erste ernstzunehmende Produkt wird. Hier sollte Intel dann auch wirklich ein Lineup bringen, Skalierbarkeit ist in der Praxis auch wichtig. Bis dahin sollten die Treiber nahe an der Perfektion sein, der Designabstand zu NV und AMD ist nicht mehr so groß, man hat den eigenen 18A zur Vergügung.
Eine gute Gelegenheit, Intel hier mal zu analysieren. Ich finde, Intel macht hier einen extrem guten Job, viel besser als der Chipletschwachsinn, den sie bei den CPUs ohne eigene Vorteile dadurch machen. Die sind ja nicht besser als monolithen und billiger auch nicht, mMn haben die in Sachen CPUs viel mehr falschgemacht als bei GPUs.
VooDoo7mx
2025-05-14, 16:06:17
Intel says ‘stay tuned’ to those asking for Arc B770 (https://videocardz.com/newz/intel-says-stay-tuned-to-those-asking-for-arc-b770)
https://cdn.videocardz.com/1/2025/05/INTEL-B770-HERO.jpg
Intel teasert fleißig. ;)
Ich finde es auf jeden fall gut,d ass Intel noch den größeren Chip bringt. Aber selbst der B580 G21 Chip ist von der Chipfläche größer als der 5070 GB203 und diese wiederum ist locker mal 70%+ schneller.
Eine spekulierte B770 G31 dürfte wohl in Richtung GB203 oder Navi 48 gehen. Für 5060Ti Leistung wäre das sehr mager. Besonders auch bei den zu erwarteten Stromverbrauch von ~250W.
Intel hat noch eine extrem weiten Weg zu gehen.
Dann wird G31 schon kommen, wenn die das so teasern. Anfang Januar war zu hören, dass Intel entschieden hat, die Arbeiten an G31 doch wieder fortzuführen. Xe3 wäre schon um einiges flächeneffizienter, wenn man die 12 Xe3 in PTL mit 8 Xe2 in LNL vergleicht. 40% mehr Fläche bei 50% mehr Einheiten und einer weniger dichten Fertigung (N3E ist weniger dicht wie N3B). Gleichzeitig wurde die Architektur aufgebohrt, unter anderem wurde der L2 Cache von 4MB auf 8MB verdoppelt.
Rabiata
2025-05-14, 18:09:53
Eine gute Gelegenheit, Intel hier mal zu analysieren. Ich finde, Intel macht hier einen extrem guten Job, viel besser als der Chipletschwachsinn, den sie bei den CPUs ohne eigene Vorteile dadurch machen. Die sind ja nicht besser als monolithen und billiger auch nicht, mMn haben die in Sachen CPUs viel mehr falschgemacht als bei GPUs.
Für AMD war das Chipletdesign angeblich kostensenkend im Vergleich zu einem gleichwertigen Monolithen. Sagte ein AMD Manager. Wenn AMD uns da nicht angelogen hat, hat Intel höchstens in der Umsetzung der Chiplets Fehler gemacht.
Für AMD war das Chipletdesign angeblich kostensenkend im Vergleich zu einem gleichwertigen Monolithen. Sagte ein AMD Manager. Wenn AMD uns da nicht angelogen hat, hat Intel höchstens in der Umsetzung der Chiplets Fehler gemacht.
Das ist ja das Problem, die Chiplets bei AMD sind auif nem billigen Träger, bei Intel mit dem teurern Stacking ist das nicht so, die Chiplets bei AMD sind an einer sinnvollen Stelle getrennt, bei Intel sieht das ziemlich wahllos aus. Das wird irgendeinen Sinn haben bei Intel, aber AMD braucht nur wenige Chiplets für etliche Produkte, bei Intel gibts quasi keine Synergien zwischen den Produkten. Das ist ja der eigentliche Sinn der Chiplets, viele Produkte aufgrund weniger Chiplets aufbauen zu können und hier hat Intel glorreich gefailt.
Shink
2025-05-14, 19:58:55
Sagte ein AMD Manager. Wenn AMD uns da nicht angelogen hat, hat Intel höchstens in der Umsetzung der Chiplets Fehler gemacht.
Chiplets bei RDNA3 waren fürn Arsch.
Lehdro
2025-05-15, 14:13:19
Das wird irgendeinen Sinn haben bei Intel, aber AMD braucht nur wenige Chiplets für etliche Produkte, bei Intel gibts quasi keine Synergien zwischen den Produkten.
Die einzigen Synergien die mir bei Intel einfallen würden:
- theoretische höhere Yields weil Chiplets < Monolith
- zeitlich unabhängig voneinander erstellbar (welches Chiplet ich wann und von wem designen lasse ist egal wenn die Grundkonzeption steht)
Das ist ja der eigentliche Sinn der Chiplets, viele Produkte aufgrund weniger Chiplets aufbauen zu können und hier hat Intel glorreich gefailt.
Ja, da hat Intel wirklich etwas liegen lassen bei der Grundkonzeption. Es gibt halt nur die Chiplets für ARL-S/H und mehr kam damit erstmal nicht...
Chiplets bei RDNA3 waren fürn Arsch.
RDNA3 ist abseits der Chiplets auch ein Reinfall. Siehe N33.
G31? Her damit!
RDNA3 ist abseits der Chiplets auch ein Reinfall. Siehe N33.
Navi 33 wäre in N5 (wie die GCDs) vielleicht ganz nett geworden. :D Wobei, ganz nett ist der auch in N6 ... netter eben.
Ich bin heute beim Spazieren zufällig dem Raff über den Weg gelaufen.
Eine gute Gelegenheit, als langjähriger 3DC/PCGH-Leser mal etwas zurück zu geben, dies ist mein erster Post :)
Ha! Das sehe ich jetzt erst. Grüße und willkommen! =)
MfG
Raff
Exxtreme
2025-05-15, 14:51:31
Das ist ja der eigentliche Sinn der Chiplets, viele Produkte aufgrund weniger Chiplets aufbauen zu können und hier hat Intel glorreich gefailt.
Das ist nicht wirklich der Sinn von Chiplets. Der Sinn ist, dass man bei Chiplets verschiedene Fertigungsgrößen/-technologien nutzen kann. Du kannst einen Teil eines Chiplet-Gesamtsystems in 5 nm fertigen und einen anderen in 3 nm. Und beide Teile können auch zeitlich voneinander getrennt gefertigt werden. Das geht bei Monolithen halt nicht. Und das kann die Fertigung viel teurer machen.
Rabiata
2025-05-15, 15:43:49
Das ist nicht wirklich der Sinn von Chiplets. Der Sinn ist, dass man bei Chiplets verschiedene Fertigungsgrößen/-technologien nutzen kann. Du kannst einen Teil eines Chiplet-Gesamtsystems in 5 nm fertigen und einen anderen in 3 nm. Und beide Teile können auch zeitlich voneinander getrennt gefertigt werden. Das geht bei Monolithen halt nicht. Und das kann die Fertigung viel teurer machen.
Als AMD die Chiplets bei Ryzen eingeführt hat, war es wohl auch eine Frage des Yields. Kleinere Chips heben eine bessere Ausbeute, weil dieselbe Anzahl von Fehlern auf dem Wafer nur einen kleineren Prozentsatz der Chips unbrauchbar macht.
P.S.: Als ich ein paar Posts zuvor den Kostenvorteil erwähnt habe, war Ryzen gemeint. Für Navi 3 habe ich keine Daten.
Intel arbeitet an einer Arc B770 Grafikkarte, die auf der Battlemage-Architektur basiert. Tweakers konnte dies mit mehreren Quellen während des Computex bestätigen.
Hochkarätige Quellen bestätigen die Existenz der Arc B770 Grafikkarte. Sie heißt es in der zweiten Hälfte dieses Jahres. Vermutlich erscheint die Karte im vierten Quartal, obwohl sich die Planung natürlich noch ändern kann.
https://tweakers.net/nieuws/235366/intel-arc-b770-videokaart-komt-er-toch-release-gepland-voor-later-dit-jaar.html
Es wäre zu hoffen, wenn sie für die größere Karte wenigstens von N5 auf N4P wechseln. Das würde bei der Taktfrequenz und dem power budget schon was bringen. Ein besserer idle Modus wäre auch nicht schlecht. Oder ein Media Upgrade auf die Version von Lunar Lake.
Radeonator
2025-05-26, 13:32:38
Angeblich sollen 770/780 Q4 kommen aber was ist, wenn der CPU Overhead HW und nicht Software bedingt ist ?
Shink
2025-05-26, 13:51:37
Angeblich sollen 770/780 Q4 kommen aber was ist, wenn der CPU Overhead HW und nicht Software bedingt ist ?
Ich wüsste nicht, wie man das ausschließen könnte aber unwahrscheinlich wär das schon.
Zumal jetzt ausschließlich die Single Core Leistung zählt. Ich kann mir schwer vorstellen, dass man da überhaupt nichts parallelisieren kann.
Exxtreme
2025-05-26, 14:10:26
Angeblich sollen 770/780 Q4 kommen aber was ist, wenn der CPU Overhead HW und nicht Software bedingt ist ?
Das kann schon sein, dass Intels GPUs bestimmte Features nicht können, was im Treiber emuliert werden muss was den Treiberoverhead nach oben treibt. Es ist aber so, dass der Treiber in DirectX 11 und 12 und auch Vulkan dieses Verhalten zeigt. Das senkt die Wahrscheinlichkeit sehr deutlich, dass es an der Hardware liegt.
E39Driver
2025-05-26, 14:21:37
Hmm geplant Q4 2025 heißt bei Intel realistisch vor H1 2026 werden keine Karten im Handel stehen. Dann tritt man bereits gegen den Blackwell Super-Refresh an und bei AMD steht auch UDNA1 vor der Tür. Wird schwierig damit am Markt irgendwas reißen zu können
Shink
2025-05-26, 14:44:09
Na, wenn die Launches von AMD und NVIDIA so ablaufen wie heuer, könnte man bei Intel trotzdem was brauchbares liefern. Und die CPUs sind dann ja auch schon etwas schneller, genau wie die Treiber.
Leonidas
2025-05-29, 06:02:07
Three more Battlemage SKUs is being added to Mesa [Lasse Kärkkäinen @ X]
https://x.com/LasseKrkkinen/status/1927338284931338437
https://www.fudzilla.com/media/k2/items/cache/5e089505925c89a38e15400f82c35a49_XL.jpg
genervt
2025-05-31, 12:41:24
Das kann schon sein, dass Intels GPUs bestimmte Features nicht können, was im Treiber emuliert werden muss was den Treiberoverhead nach oben treibt. Es ist aber so, dass der Treiber in DirectX 11 und 12 und auch Vulkan dieses Verhalten zeigt. Das senkt die Wahrscheinlichkeit sehr deutlich, dass es an der Hardware liegt.
Hat Intel einen HW Scheduler? Ich habe die Arch nicht im Kopf, aber erinnere mich von früher, dass NV viel in SW gemacht hat was AMD schon in HW machte. Wäre eine Möglichkeit.
Daredevil
2025-06-13, 23:15:16
Arc B770 noch 2025?: Intels große Battlemage-GPU BMG-G31 lebt
https://www.computerbase.de/news/grafikkarten/arc-b770-noch-2025-intels-grosse-battlemage-gpu-bmg-g31-lebt.93140/
Intel Arc B770 mit PCIe 5.0: Neue Hinweise auf ein Release
https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Intel-Arc-B770-mit-PCIe-5-0-x-16-1474845/
:O
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.