PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Xe discrete GPUs (DG1, 2021 + DG2 "Alchemist", 2022)


Seiten : 1 2 3 [4] 5 6 7

davidzo
2021-03-02, 20:49:18
Intel wird das Low-Mid-Range Lineup mit 14nm+++++ bringen, das ja "InHouse" spottbillig ist und die Konkurrenz mit den niedrigeren Preis unterwandern.

Das Top-Modell DG2-512EU ist fürs Marketing gedacht und kann auch in 10nm kommen um Fläche zu sparen, weil die 4096 ALUs doch relativ breit ist. Fast so breit wie Navi20 mit 5120 SPs.
Vega10 14nm mit 4096 SPs braucht ja 484mm² und 12,5 Mrd. Transistoren (25,82 Mio/mm²)

Es ist ja auch bekannt, dass die EUs für den höheren Takt extrem dick sein müssen. Um die 4096 ALUs hochzutakten braucht man viele Transistoren, vermutlich deutlich mehr als 12,5 Mrd. inkl. den neuen instructions und DX12_2 features. Summarum vermutlich 17-18 Mrd.

Ein Teil davon ist das I/O, das nicht ganz so dicht gepackt werden kann wie die ALUs. Mit einer super optimistischen Einschätzung ladet Intel DG2-512Eu mit 2,0Ghz unterhalb der RX6800 und im Bereich der aktuellen 3060Ti & 3070 und 6700XT & 6700.

Die angebotenen 16GB VRAM sind natürlich super verkaufsfördernd selbst wenn Intel pessimistisch nur die 3060er 12GB erreicht, aber eben 4GB mehr Speicher hat.
Schwache GPU`s mit viel Speicher kommen wieder in Mode.

Unsinn.
Die Intel XE Gaming GPUs kommen in TSMC 6nm.
Du verwechselst da was mit XE DG1, XE-HP und XE-HPC(ponte veccio), wo es einen intel 10nm und 7nm Fertigungsanteil gibt.
Dass die Menge an Transistoren mit dem Takt korreliert ist auch nicht richtig, es ist eher umgekehrt der Fall.

XE-HPG soll 512EUs haben und ein n256bit SI. Das ist kein wahnsinnsgroßer chip in 6nm, ich schätze eher so um die 300-350mm2, also Navi22 Größe.

DG1 hat mit einem Slice 96 EUs mit Quicksync, Display, PCIe, 128bit LPDDR4 SI etc. und ist nur 77mm2 in 10nm groß.
Ca. die Hälfte davon sind Display block, Quicksync etc.

Zudem hat TSMCs 6nm ca. 14% mehr Density als Intels 10nm.
DG2 wird 128EU große Slices haben statt 96. Daraus bauen sie wenn die Gerüchte stimmen eine 1, 2 und eine 4 slice GPU. Wenn man dann das SI, Displayblock, Quicksync etc. herausrechnet sollten das inkl. L3 nicht mehr als 50mm2 pro Slice in TSMC N6 sein.
Das sind dann 200mm für 4 Slices, + SI 256bit ca. 50mm2 + PCIe, Quicksync, Display machen dann Summa Summarum ca. 300-350mm2 für den ganzen chip.



Die Leistung/IPC von Intel Gen12 ist hinreichend bekannt. Bei gleichem Takt und Speicherbandbreite ist Intel Gen12 pro Alu ca. Äquivalent zu AMD vega. Teilweise mit größeren Rückständen in bestimmten Spielen, was auf schlechte Treiber oder irgendwelche Bottlenecks hindeutet.

Die 512 Alus von Vega8@1,75 Ghz sind meistens etwas langsamer als Intels 768 Alus @1,34Ghz von Tigerlake. Allerdings muss Intel diese Skalierung von 1x Slice auf vier Slices auch erstmal hinbekommen, nicht dass z.B. der Polygondurchsatz ein Bottleneck wird (da ist Gen12 aber eigentlich ganz gut drin). Nebenbei wird das auch die erste Implementation von Hardware RT für Intel sein.


Für DG2 würde ich jetzt keine drastisch höheren Taktraten erwarten, eher auch so 1,4-1,8Ghz. Damit ist eine performance ungefähr auf Vega64 / 5700xt und biszu 3060 Niveau erreichbar.

Die 3070 oder 6800 zu erreichen ist schon alleine deswegen illusorisch weil die Gen12 Architektur bisher sehr bandbreitenlimitiert wirkt und mit nur 256bit niemals so weit skalieren würde.

Man kann sich das vorstellen wie einfach 4x Tigerlake IGP plus 30% mehr Takt, plus 25% mehr Alus pro Slice und RT Cores.
Das ist lange noch keine Highendkarte.


Ist die INTeL-Architektur eigentlich für Mining-Aktivitäten (gut) geeignet? Das könnte ja schon in dieser Richtung etwas Entlastung in den Markt bringen! :-)

Gute Idee :up:
Müsste man mal sehen, analog zu Vega64 könnte das ganz gut gehen. Man hat relativ viele ALUs (im vergleich zu Navi22/23) und mit Intels oneAPI Software Stack stehen ja auch ganz gute tools zur Verfügung die für GPU-compute zu nutzen.

Loeschzwerg
2021-03-13, 17:33:02
i7-1065G7 / Iris Plus 940 (Gen11) - 15W PL1 (Locked)
74550
CPU - 2.806
Graphics - 603
Score - 683

i7-1065G7 / Iris Plus 940 (Gen11) - 15W PL1 (Default)
74549
CPU - 2.864
Graphics - 706
Score - 795

i7-1165G7 / Iris Xe "96EU" (Gen12) - 15W PL1 (Locked)
74551
CPU - 3.291
Graphics - 1.203
Score - 1.329

i7-1165G7 / Iris Xe "96EU" (Gen12) - 30W PL1 (Default)
74552
CPU - 4.144
Graphics - 1.632
Score - 1.795

i7-1165G7 / Iris Xe MAX (Gen12) - 30W PL1 (Default)
74553
CPU - 4.278
Graphics - 1.815
Score - 1.986


https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=74554

Erster Vergleich meinerseits zwischen 1065G7 (Acer Swift 3) und 1165G7 + DG1 (Acer Swift 3X).

Locked => Turbo Power Limit festgenagelt

Loeschzwerg
2021-03-14, 11:26:05
Hier die Fire Strike Ergebnisse:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=74568&stc=1&d=1615717412


Ideen warum der Physics Score mit der Xe Max reproduzierbar niedriger ausfällt? Der Takt der CPU bricht im letzten drittel des Tests immer ein, mit der IGP nicht.

Link zu den Screens:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12623678#post12623678

Edit:
Genutzter Grafiktreiber -> v27.20.100.9316

davidzo
2021-03-14, 12:20:00
Nice, thx @Löschzwerg :wave:

Das mit dem Physics Score bzw. Takt am Ende des Benchmarks ist in der Tat merkwürdig. Ich würde vermuten dass das eine Firmware/scheduler Anomalie ist, muss in Games nicht wirklich etwas ausmachen...

Loeschzwerg
2021-03-14, 18:10:43
@davidzo: Gerne :)

Nun noch Wild Life:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=74579&stc=1&d=1615741568

Link zu den Screens:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12624033#post12624033

Hier hat die Kombination mit der dGPU deutliche Nachteile gegenüber der IGP.

Jetzt schaue ich mir dann die Tage ein paar Spiele an. So für den Anfang habe ich mir SotTR, Doom und AotS vorgenommen. Zu FH4 und RE3 gibt es Demos, die stehen auch auf dem Plan.

vinacis_vivids
2021-03-14, 18:49:51
Hier die Fire Strike Ergebnisse:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=74568&stc=1&d=1615717412



Link zu den Screens:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12623678#post12623678

Edit:
Genutzter Grafiktreiber -> v27.20.100.9316

Was ist jetzt XE Max vs XE IGP?
Wird da der Strom anders zugeteilt oder wie kann ich das verstehen?

Loeschzwerg
2021-03-14, 18:58:09
Xe MAX => DG1 => dGPU mit eigenen 4GB LPDDR4

vinacis_vivids
2021-03-17, 21:58:12
https://www.gamestar.de/artikel/konkurrenz-nvidia-amd-leak-specs-intel-xe-hpg-dg2,3368013.html

Name: Intel Xe-HPH DG2 (Gen12)
Recheneinheiten: 512 Execution Units respektive 4.096 Shader
Taktrate: maximal 1.800 MHz
Videospeicher: 12,0 GByte, vermutlich GDDR6

Theoretisch 14,75 Tflop/s damit etwas mehr als Vega10 4096SP 1677Mhz ~ 13,74 Tflop/s
Leistungsmäßig wohl besser als Vega64 und vermutlich bei der RX5700 8GB bzw. RTX3060 12GB einzuordnen.

Desktop-Gamer dürfen sich freuen, dass es einen dritten Player gibt.

Raff
2021-03-17, 22:05:25
Yep, das verspricht endlich mal wieder echte Spannung - und eine harte Bewährungsprobe, wo AMD nun auch wieder ganz oben mitspielt. :up:

MfG
Raff

davidzo
2021-03-19, 13:40:29
Hm, die Speicherausstattung passt aber nicht zum DG2 Topmodell. Das sollte doch 256bit haben, also mit 8/16gb kommen.

Loeschzwerg
2021-03-19, 19:18:28
Shadow of the Tomb Raider - Ergebnisse (Iris Plus 940, Xe Graphics und Xe MAX)

720P - Low/Medium/High
74644 74645 74646

1080P - Low/High
74647 74648

Anmerkungen:
- Xe MAX kann sich wenn überhaupt wenig absetzen; die Auslastung stimmt unter 720P nicht und liegt bei nur ~91% (1080P sind es 99-100%), wobei die CPU noch Luft hätte
- Xe MAX profitiert dafür vom eigenen Speicher, in Sequenz #3 des Benchmarks gibt es kein sichtbares Texture-Streaming
- die IGPs zeigen alle sichtbares Texture-Streaming zu Beginn der Sequenz #3 des Benchmarks
- erstmaliger Start des Spiels kann mit Xe Beschleunigern @ DX12 manchmal etwas dauern, Gen11 zeigt dieses Verhalten nicht

Edit:
Ergebnisse wie gehabt mehrfach verifiziert. Screenshots gibt es bei Twitter.

vinacis_vivids
2021-03-19, 19:30:46
Xe hat also eine Art "hardware-stage" Funktion, welche unter DX12 die rendering-Bedingungen festlegt. Das erinnert sehr stark an AMD "shader-stage" um sich vom Treiber unabhängiger zu machen.
Gen11 ist Nvidia ähnlich, übergibt alles den Treiber und startet die Hardware ohne vorher Hardware-Parameter festzulegen. Also sehr treiberabhängige execution.

y33H@
2021-03-19, 19:37:43
Woher nimmst du eigentlich all diese Weisheiten?

misterh
2021-03-23, 22:17:01
https://abload.de/thumb/1q1k3k.png (https://abload.de/image.php?img=1q1k3k.png)https://abload.de/thumb/2lok0x.png (https://abload.de/image.php?img=2lok0x.png)

Langlay
2021-03-23, 22:19:05
Woher nimmst du eigentlich all diese Weisheiten?

Kaffeesatz oder Vogelflug glaub ich.

Loeschzwerg
2021-03-24, 17:27:07
Weitere Ergebnisse zu Iris Plus 940, Xe Graphics und Xe MAX.

Heaven 4.0 - 720P und 1080P (D3D11, Ultra, Extreme, 8xAA)
74698 74699
je dreimaliger Durchlauf -> bestes Ergebnis

Dota 2 - 1080P "Best Looking" (D3D11)
74700
je dreimaliger Lauf eines Replays; 120sec mit CapFrameX; Gesamtbetrachtung

CS:GO - 1080P no/8x MSAA "Max" (D3D9; no Streaming, no Contrast, no FXAA, no Blur)
74701 74702
je dreimaliger Lauf der FPS Benchmark Map; 90sec mit CapFrameX; Gesamtbetrachtung

Loeschzwerg
2021-03-31, 18:00:20
FFXV Benchmark - 720P/1080P Lite und Standard
74804 74805
74806 74807

Bis jetzt sieht es mit der Xe MAX nicht allzu gut aus, die Leistung kommt irgendwie nicht so recht an. Ich bin auch über erste offensichtliche Grafikfehler gestolpert, die Hintergründe in der Horizon 4 Demo können flackern (Verhalten zwischen Xe IGP und DG1 identisch; Treiber v9316).

Generell scheint Intel unter DX12 noch etwas Arbeit vor sich zu haben. Vulkan (Doom 2016) sieht auf den ersten Blick aber gut aus.

vinacis_vivids
2021-04-09, 10:38:04
https://www.techpowerup.com/280774/intel-xe-hpg-dg2-gpu-engineering-sample-pictured

Intel Xe-HPG DG2 Engineering Sample ist aufgetaucht.

512 Execution Units
4096 Shader Units
16GB GDDR6 256bit
2,2Ghz GPU-CLK
275W Leistung 8+6pin
XeSS - Upscaling und Ray-Tracing features sind vorhanden.
DX12 Ultimate API
Q4 2021 release

Leistungsmäßig soll es NV RTX3070Ti 16GB bzw. AMD RX6800 16GB werden.

https://abload.de/thumb/3gecwd0pobid6rjp2dj13.jpg (https://abload.de/image.php?img=3gecwd0pobid6rjp2dj13.jpg)https://abload.de/thumb/bnvivkdhchhyfbazapkgw.jpg (https://abload.de/image.php?img=bnvivkdhchhyfbazapkgw.jpg)https://abload.de/thumb/tcautdmmuw5trosxf3k3d.jpg (https://abload.de/image.php?img=tcautdmmuw5trosxf3k3d.jpg)https://abload.de/thumb/uvmhoomre01u4v8wydj01.jpg (https://abload.de/image.php?img=uvmhoomre01u4v8wydj01.jpg)

84IV8VmQoY4

Raja bringt die 4096SP aus Fiji`s Zeiten nun bei Intel zur Höchstform auf.

w0mbat
2021-04-09, 11:50:56
del

davidzo
2021-04-09, 12:29:48
Wow, 2,2Ghz - so eine Steigerung hätte ich vom Wechsel auf TSMC 6nm nicht erwartet.

Intels "überlegener" 10nm Superfin Prozess schafft ja mit der gleichen Architektur nur 1,65Ghz in der XE Max und das ist bereits fernab von jeglichem sweetspot.


Trotzdem sehe ich bei der bekannten Skalierung von XE noch keine Chance auf das versprochene Leistungsniveau. Bisher lag die performance pro CU/8EU bei XE eher auf Vega Niveau. Das wird nicht über Nacht RDNA2 Level erreicht haben.

Bisher habe ich 3060 performance mit 1,7Ghz erwartet, also leicht oberhalb von Vega64 mit dem gleichen shadercount aber niedrigeren taktraten.
Die neuen 2,2Ghz sind 30% mehr Takt, damit kommt man in die Nähe der 3070, aber nicht davor.
3080 Leistung finde ich ohne neue Architektur mit nur 512EUs sehr schwer vorstellbar, da müsste der Turbo schon besser als bei Navi21 Zünden, also bei um die 3Ghz liegen, vorrausgesetzt Intel hat das Bandbreitenproblem irgendwie gelöst bekommen.
XE hängt aktuell stark an der Bandbreite, noch stärker als Vega die den historischen Bandbreitenbedarf von GCN mit sich herumschleppt. Mit lediglich einem 256bit SI wird Intel da nicht viel reißen es sei denn man hat eine Cache Strategie mit an bord ähnlich wie AMD.

Der Kühler hat kaum sichtbaren Heatpipes, also wahrscheinlich vaporchamber in der Mitte und eine ganz flache heatpipe sieht man von oben ganz rechts.
Zu einer dicken Bodenplatte bzw. Vaporchamber passt auch dass die Abdeckung der Kante den Luftauslass gut 6mm über dem PCB hat. Ohne dicke Bodenplatte gäbe es hier einen ziemlich suboptimalen Hitzestau direkt am PCB.

Ein bisschen Merkwürdig ist das Kühlerdesign schon, wo sollen die ganzen Caps und Drosselspulen denn hin, wenn so ein flächiger Kühler das ganze PCB bedeckt? Nur rechts direkt unter den PCIe Steckern wäre Platz und ganz Links an der Slotblende.

r3ptil3
2021-04-09, 14:25:11
Interessante Meinung @davidzo.

Ich bin gespannt wo die Treiberqualität bei Release stehen wird. Abseits der Performance, sehe ich hier das grösste Risiko, dass die erste Generation als Flop in die Grafikkartengeschichte eingehen könnte.

Loeschzwerg
2021-04-09, 14:57:34
Die Xe Treiber sind halbwegs OK. Es gibt Probleme, aber die gibt es auch bei NV/AMD mit jeweils neue oder großen Änderungen an der Architektur.
Intel muss den Fokus allerdings etwas mehr auf AAA legen und Bugfixes in diese Richtung priorisieren.

Etwas OT:
Solche Aussagen (https://www.computerbase.de/forum/threads/intel-xe-hpg-dg2-mutmasslich-erstes-foto-der-gaming-version-als-prototyp.2016225/page-5#post-25511260) in den Foren nerven mich, das ist schlichtweg falsch und zeigt wie viel Schaden dieser miese Bericht hinterlassen hat.


Ein bisschen Merkwürdig ist das Kühlerdesign schon, wo sollen die ganzen Caps und Drosselspulen denn hin, wenn so ein flächiger Kühler das ganze PCB bedeckt? Nur rechts direkt unter den PCIe Steckern wäre Platz und ganz Links an der Slotblende.

Was wundert dich da? Sieht doch hier (https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/50216-die-inno3d-geforce-rtx-2070-super-twin-x2-im-test.html?start=2) als Beispiel nicht anders aus.

Fusion_Power
2021-04-09, 15:55:51
https://www.techpowerup.com/280774/intel-xe-hpg-dg2-gpu-engineering-sample-pictured

Intel Xe-HPG DG2 Engineering Sample ist aufgetaucht.

512 Execution Units
4096 Shader Units
16GB GDDR6 256bit
2,2Ghz GPU-CLK
275W Leistung 8+6pin
XeSS - Upscaling und Ray-Tracing features sind vorhanden.
DX12 Ultimate API
Q4 2021 release

Leistungsmäßig soll es NV RTX3070Ti 16GB bzw. AMD RX6800 16GB werden.

Raja bringt die 4096SP aus Fiji`s Zeiten nun bei Intel zur Höchstform auf.
Leistung einer RTX3070Ti bei 275W TDP? Hmm, bissl hoch der Verbrauch in Relation zur Leistung oder täusche ich mich da?

Interessante Meinung @davidzo.

Ich bin gespannt wo die Treiberqualität bei Release stehen wird. Abseits der Performance, sehe ich hier das grösste Risiko, dass die erste Generation als Flop in die Grafikkartengeschichte eingehen könnte.
Zumindest im mobilen iGPU Bereich scheint die XE Grafik auf den Tiger Lake CPUs treibertechnisch ganz OK zu sein.

Leonidas
2021-04-09, 16:52:14
Leistung einer RTX3070Ti bei 275W TDP? Hmm, bissl hoch der Verbrauch in Relation zur Leistung oder täusche ich mich da?

Kommt mir auch viel vor. Mehr als oberes Midrange ist damit nicht drin. Aber immerhin: Dritter Anbieter. Und nach unten hin volles Sortiment. Performance-Abschätzung (grob & fehleranfällig) (https://www.3dcenter.org/news/geruechtekueche-intels-dg2-512-soll-die-performance-einer-geforce-rtx-3070-ti-aufbieten):

Chip|Hardware|Speicher|Performance-Klasse|TDP|Release
DG2-512|512 EU (4096 FP32) @ 256 Bit|8/16 GB GDDR6|angebl. GeForce RTX 3070 Ti|angebl. 275W|angebl. Q4/2021
DG2-384|384 EU (3072 FP32) @ 192 Bit|6/12 GB GDDR6|geschätzt ca. GeForce RTX 2080|geschätzt 200W|vermtl. irgendwann 2022
DG2-256|256 EU (2048 FP32) @ 128 Bit|4/8 GB GDDR6|geschätzt ca. GeForce RTX 2060|geschätzt 140W|vermtl. Anfang 2022
DG2-128|128 EU (1024 FP32) @ 64 Bit|4 GB GDDR6|geschätzt ca. GeForce GTX 1650|geschätzt 70W|angebl. Q4/2021 bis Q1/2022
DG2-96|96 EU (768 FP32) @ 64 Bit|4 GB GDDR6|geschätzt ca. GeForce GTX 1050|geschätzt 40W|vermtl. irgendwann 2022

Platos
2021-04-09, 17:06:13
Gelten denn die Speichermengen als jeweils unbekannt oder sind damit 2 Versionen von z.B 8 und 16GB gemeint?

Aber die DG2-384 mit grob 2080 Perfomance in 2022 könnte evtl. dann mit viel Pech mit irgend einem Refresh von nvidia/AMD konkurrieren. So einer Art 3060 Super z.B

Btw. ist die 3060 nicht im Perfomance Index.

Fusion_Power
2021-04-09, 17:11:09
Kommt mir auch viel vor. Mehr als oberes Midrange ist damit nicht drin. Aber immerhin: Dritter Anbieter. Und nach unten hin volles Sortiment. Performance-Abschätzung (grob & fehleranfällig) (https://www.3dcenter.org/news/geruechtekueche-intels-dg2-512-soll-die-performance-einer-geforce-rtx-3070-ti-aufbieten):

Chip|Hardware|Speicher|Performance-Klasse|TDP|Release
DG2-512|512 EU (4096 FP32) @ 256 Bit|8/16 GB GDDR6|angebl. GeForce RTX 3070 Ti|angebl. 275W|angebl. Q4/2021
DG2-384|384 EU (3072 FP32) @ 192 Bit|6/12 GB GDDR6|geschätzt ca. GeForce RTX 2080|geschätzt 200W|vermtl. irgendwann 2022
DG2-256|256 EU (2048 FP32) @ 128 Bit|4/8 GB GDDR6|geschätzt ca. GeForce RTX 2060|geschätzt 140W|vermtl. Anfang 2022
DG2-128|128 EU (1024 FP32) @ 64 Bit|4 GB GDDR6|geschätzt ca. GeForce GTX 1650|geschätzt 70W|angebl. Q4/2021 bis Q1/2022
DG2-96|96 EU (768 FP32) @ 64 Bit|4 GB GDDR6|geschätzt ca. GeForce GTX 1050|geschätzt 40W|vermtl. irgendwann 2022

Ich wäre persönlich schon voll zufrieden mit einer brauchbaren GPU um die 75W. Irgend was dass im Zweifel eine GTX1050Ti ersetzen kann. Mal sehen was Intel diesbezüglich noch abliefert.

Dural
2021-04-09, 17:41:29
Karten die kein Mensch braucht, und das ewige "endlich einen 3. Anbieter Gerede" ist auch einfach nur dumm.

Der Markt ist zu klein für 3 Anbieter, einer wird untergehen. Und ich glaube nicht das es Intel sein wird, die werden Milliarden in die Sparte stopfen und die Karten notfalls mit Verlust verkaufen.

Spiele müssen auf drei Architekturen angepasst werden, die Qualität wird noch mal sinken...

Deutlich Wichtiger wäre endlich mal ein offener CPU Markt... :rolleyes::rolleyes::rolleyes:

y33H@
2021-04-09, 17:56:34
Etwas OT:
Solche Aussagen (https://www.computerbase.de/forum/threads/intel-xe-hpg-dg2-mutmasslich-erstes-foto-der-gaming-version-als-prototyp.2016225/page-5#post-25511260) in den Foren nerven mich, das ist schlichtweg falsch und zeigt wie viel Schaden dieser miese Bericht hinterlassen hat.Vor allem weil das für eine Iris Xe Max und die "echte" DG1 nicht gilt, kA was mit dem SDV los war ...

davidzo
2021-04-09, 22:42:53
Solche Aussagen in den Foren nerven mich, das ist schlichtweg falsch und zeigt wie viel Schaden dieser miese Bericht hinterlassen hat.


Ich finde solche Aussagen sehr hilfreich, weil die Botschaft die rüber kommt stimmt: Finger weg von Intel GPUs, die machen die absichtlich inkompatibel! Und viel wichtiger die Botschaft an die Intel Devs/product management: Verdongelung ist Kacke. Hört endlich auf den Nutzer immer zu bevormunden und so zu tun als währt ihr viel Schlauer. Selbst wenn ihr das seid geht solche Arroganz immer nach hinten los.

Vor allem weil das für eine Iris Xe Max und die "echte" DG1 nicht gilt, kA was mit dem SDV los war ...

Ich finde das Verhalten gehört zu recht bestraft. Ist eine völlig unnötige Gängelung seitens Intel. Leider machen die so Zeug sei Jahrzehnten, viel schlimmer machen die das noch bei pricing und Marktsegmentierung, ECC und anderen essentiellen features. Da kriegt man als Device manufacturer echt das Kotzen vor lauter Arroganz. Den Schaden hat dann gleich die ganze Industrie dank Intels Marktmacht. Gelsinger hat ja jetzt eine Transparenzoffensive angekündigt und die ersten Effekte sieht man ja (Transistorzahlen für Rocketlake, fertigungsrückstand Eingeständnis, etc.), viel ist da aber noch nicht praktisch in den einzelnen Märkten bei herum gekommen. Ich glaube dass Intel einfach noch ganz viel leiden muss um noch mehr dabei zu lernen.

Von mir aus macht gerne noch 3- 4 mehr solche Inhaltslosen XE Max Tests um festzustellen wie Kacke die Verdongelung denn wirklich ist. Ab einer bestimmten Testanzahl wird Intel wohl zwangsläufig reagieren die Treiber freischalten!
Bei einem so renitenten Fall hilft nur noch Schockteraphie und das tut langfristig auch den DG2 Treibern gut wenn DG1 auf möglichst vielen Plattformen getestet wird, da bin ich mir sicher.

Duplex
2021-04-09, 23:28:46
Bei der Architektur Entwicklung soll Intel seit längerer Zeit vollen Zugriff auf AMDs GPU Patente erhalten haben.

Loeschzwerg
2021-04-10, 00:25:57
Ich finde solche Aussagen sehr hilfreich, weil die Botschaft die rüber kommt stimmt: Finger weg von Intel GPUs, die machen die absichtlich inkompatibel! Und viel wichtiger die Botschaft an die Intel Devs/product management: Verdongelung ist Kacke. Hört endlich auf den Nutzer immer zu bevormunden und so zu tun als währt ihr viel Schlauer. Selbst wenn ihr das seid geht solche Arroganz immer nach hinten los.

Von welcher Vedongelung und Gängelung sprichst du? DG1 war/ist von Anfang an nur als Testballon mit maximaler Resteverwertung gedacht gewesen. Nicht mehr, nicht weniger.

Dieser Leak-Test lässt die Leute glauben es gäbe keine funktionierende Hardware und Treiber. Das ist schlichtweg falsch und den Beweis kann jeder käuflich erwerben.

Über die Marketing und SKU Einteilung brauchen wir nicht weiter reden, bei so Dingen wie ECC bin ich bei dir. Das erwischt nur leider jedes große Unternehmen sobald ein gewisser Schlag an Kaufmännern in gehobenen Positionen sind. Diesen Hochmut hat auch AMD schon durchblicken lassen.

Bitte weniger emotional in Zukunft.

davidzo
2021-04-10, 11:31:15
Diesen Hochmut hat auch AMD schon durchblicken lassen.


Auf jeden Fall, ich kritisiere Intel nicht um hier AMD zu pushen. Der Move mit dem vendorlock bei Lenovo Threadripper Systemen - praktisch dem einzigen OEM für Threadripper Pro - ist auch nicht besser und gehört vom Kunden bestraft. Einfach nicht kaufen so einen Kram.
Ich finde Tech media hat hier durchaus eine Aufklärungsfunktion (die zum Glück auch meist wahrgenommen wird) und sollte immer Partei als Anwalt des Kunden beziehen, nicht der Hersteller. Problematisch finde ich es wenn sich Tech media als verlängerte PR Abteilung der Hersteller versteht und als Gegenüber zu "den Consumern da draußen". Das passiert aufgrund der symbiotischen Beziehung zwichen herstellern und tech media leider häufiger und ist imo der Grund wieso youtuber und blogger beim Endkunden immer beliebter werden während die traditionellen Magazine und Portale trotz Marktaufschwung dahinstagnieren.

Bei der Architektur Entwicklung soll Intel seit längerer Zeit vollen Zugriff auf AMDs GPU Patente erhalten haben.

Aber ist DG2 eine neue Architektur oder ist das nicht immer noch XE/Gen12, bloß auf mehr EUs skaliert?

Interessant finde ich außerdem die SKU Abstufung. DG2-512 und DG2 384 liegen so nah beeinander dass es eigentlich nur Sinn macht wenn sie auf demselben DIE basieren. Dass die 384EU/192b Variante aber ein ca. 190mm DIE mit relativ kleinem package hat wurde ja bereits geleakt. Also entweder DG2-512 ist ein weiterer chip, was sehr merkwürdig wäre hätte der nicht in hardware noch mehr EUs (640?), oder DG2-512 ist ebenfalls ein 190mm2 DIE. Vor dem Hintergrund wäre dann 3060 Niveau sogar sehr hoch gezielt...

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=74921&stc=1&d=1618047063


Vielleicht ist die Interpretation von @OneRaichu aber auch fehlerhaft und der DIE ist nicht zentriert auf dem Package sondern nach unten verschoben. Dann könnte der DIE mit 22,3*17mm rund 380mm2 groß sein, was verdammt viel ist für 6nm TSMC und vom transistorcount locker auf Navi21 niveau.

AffenJack
2021-04-10, 13:15:25
Aber ist DG2 eine neue Architektur oder ist das nicht immer noch XE/Gen12, bloß auf mehr EUs skaliert?


Kommt drauf an, sind RDNA 1 und RDNA2 für dich eine Architektur oder 2? Der Sprung dürfte bei Intel genausogroß, wenn nicht sogar größer werden zwischen XE LP und XE HP. Alleine das Inkludieren der DX12 Features wird Veränderungen nach sich ziehen. Ob die Leistung/EU besser wird, ist allerdings unklar.

basix
2021-04-10, 13:37:59
380mm2 mit Leistung zwischen 3070 und 3080 wäre doch gut. Das ist auf Augenhöhe mit Nvidia und AMD bei Performance als auch Perf/mm2 und Perf/Transistor. Und gerade letztere zwei wären sehr erstaunlich, wenn man sich die Intel iGPUs anschaut und deutlich besser, als was ich erwartet hätte.

Fragman
2021-04-10, 16:53:21
380mm2 mit Leistung zwischen 3070 und 3080 wäre doch gut. Das ist auf Augenhöhe mit Nvidia und AMD bei Performance als auch Perf/mm2 und Perf/Transistor. Und gerade letztere zwei wären sehr erstaunlich, wenn man sich die Intel iGPUs anschaut und deutlich besser, als was ich erwartet hätte.

Imho, kann mir nicht vorstellen das die gleich da landen werden.
Wenn, wäre das allerdings sehr gut, das stimmt.

davidzo
2021-04-12, 15:45:02
380mm2 mit Leistung zwischen 3070 und 3080 wäre doch gut. Das ist auf Augenhöhe mit Nvidia und AMD bei Performance als auch Perf/mm2 und Perf/Transistor. Und gerade letztere zwei wären sehr erstaunlich, wenn man sich die Intel iGPUs anschaut und deutlich besser, als was ich erwartet hätte.

Die 380mm2 in N6 sind jetzt aber kein Leak, sondern nur eine sehr loose Spekulation meinerseits anhand der DG2-384 PCB Layout Leaks, welche ihrerseits nicht confirmed sind.
Für ein echtes Layout spricht dass die Speicherchips extrem nah an der GPU sind, was ein sehr moderner Layout Ansatz ist, siehe Ampere und GDDR6X.

btw, das Pinout sieht aber sehr nur nach einem 192bit SI aus. Wo wären die beiden zusätzlichen Chips für ein 256bit SI angeschlossen?
Was wieder dafür spricht dass DG2-512 nicht dasselbe package und ggf. nicht denselben DIE hat. Das führt uns wieder im kreis herum, man könnte spekulieren dass es einen extra DIE für die 384EU und die 512EU Variante gibt.

basix
2021-04-12, 21:22:04
Ist mir schon klar ;)

Ich habe mal Tiger Lake angeschaut. 190mm2 bei 384 EU wäre denkbar. XE mit 96 CUs auf 10nm benötigt etwa 50mm2. 96 EUs / L3$ / TMUs und die Kontrolllogik in der Mitte der GPU gerade mal 32mm2. Was noch fehlt sind Display Controller sowie I/O. Aber 190mm2 scheint mir im Rahmen des Möglichen. Nimmt man eine RDNA GPU, bewegt sich I/O und Display Zeugs im Bereich von total 80-90mm2 (bei 192bit). Das noch in TSMC 6nm und der Unschärfe der obigen Vermassung und wir sollten schon in diesen Bereich kommen. 512EU und 256bit wäre dementsprechend eher so 240-260mm2. Da hören sich 275W aber nach gewaltig viel an :D

Bei ~250mm2 glaube ich aber dann auch nicht mehr an 3070 Performance. Das wäre irgendwie zu viel das Guten.

Lehdro
2021-04-13, 15:33:51
Imho, kann mir nicht vorstellen das die gleich da landen werden.
Wenn, wäre das allerdings sehr gut, das stimmt.
Kommt darauf an, an was Intel das Performanceziel festmacht. Wenn es wie sonst läuft, hauen sie wieder ganz tolle 3DMurks Werte raus, wo wir ja wissen, dass sie im Vergleich zu "Real World Tests" overperformen und können dann die üblichen Korrekturen vornehmen. Aus der 3070 Ti wird dann halt irgendwas zwischen 3060 und 3060 Ti.

Kann uns aber auch egal sein solange die Treiber sich verbessern und der Preis stimmt. Selbst ein gewisser Mehrverbrauch egalisiert sich dann irgendwann, siehe Polaris vs 1060.

davidzo
2021-05-07, 12:12:39
Okay, Igor hat wohl einige neue Boardlayout screenshots und Gerüchte um den releaseplan.
https://www.igorslab.de/exklusiv-intels-dg2-fuer-mobile-und-desktop-xe-geht-in-die-zweite-phase/


Das klingt alles ziemlich ernüchternd, Desktopkarten höchstwahrscheinlich nicht mehr in diesem Jahr, weil Mobile vogezigen wird. Die Performance-Mobilchips aber dann auch erst im Dezember, also kaum noch in diesem Jahr in Geräten verfügbar. Das wäre eine deutliche Verzögerung gegenüber den bisher bekannten Plänen.
Es macht schon sinn wieseo Intel das euphemistisch "Odyssey" nennt - Eine Irrfahrt ist das halt, also das Gegenteil von Zielstrebigkeit.
Letztes Jahr war sogar noch die Chance im Raum dass 2020 gelauncht wird. Jetzt wird es wohl eher 2022.

Ein Mobile First bzw. mobile only launch sähe ich auch als letzten Ausweg wenn XE nicht konkurrenzfähig ist. Klar, im moment verkaufen sich auch veraltete desktopkarten wie geschnitten brot, aber XE DG2 hat einen anderen verkaufshorizont wo das wohl nicht mehr der Fall ist. Durch Bundelung mit schnellen Tigerlake H45 CPUs, Chipset, Wifi, ggf. ram+ssd und gutem Field Engineer Support beim Design etc. würde Intel auch mittelmäßige Grafikchips an den Mann bringen. Die meisten Notebook Komponenten werden in Bundles und mit großen Rabatten verkauft, das erklärt die vielen merkwürdigen Konfigurationen da draußen.
Einzelne Desktopkarten im Retail müssen sich da schon ganz anders behaupten.

Anscheinend verwenden sowohl die 256bit als auch 128bit Karten dasselbe BGA2660 Package das verhältnismäßig klein ist. 21x21mm mit geradezu winzig und wird wahrscheinlich UTFCBGA sein mit 0.3mm balls oder noch kleiner . Das macht die PCBs nicht gerade billig, zumindest weiß ich dass es einer der Faktoren war wieso es kaum Tablets mit mehr als 2gb ram und dualchannel gab. Statt der 17x17mm UTFCBGA1380 CPUs hat sich bei chinesischen OEMs dast ausschließlich die FCBGA592 Variante mit relaxtem ball pitch und singlechannel memory verkauft.
Okay, das mag bei höher performenden Notebooks kein Faktor mehr sein, aber damals war es ein Desaster was den Intel CPUs im vergleich zur nichtmal unbedingt schnelleren ARM Tablet-Konkurrenz den Todesstoß gegeben hat.

EDIT: No way dass das gezeigte Boradlayout SKU 2 oder 3 ist. Das ist ein kleiner Chip mit nur 64bit SI, sieht man schon an den 2 GDDR Modulen daneben. Also 96/128 EUs bzw. eben ein direkter Nachfolger der DG1 XE Max.

Igors Layout und der oben gezeigte Chip sind auf jeden Fall ein sehr anderes Package mit wahrscheinlich auch sehr anderem DIE.

davidzo
2021-05-07, 12:57:13
Okay, beide Bilder von Igor sind schonmal verzerrt worden.

Tigerlake FCBGA1449 ist 46.5x25mm nicht 23mm wie in Igors Datei. Die Achse die beim GPU Package mit 21mm beschriftet ist ist nur 20mm lang.

davidzo
2021-05-07, 13:16:42
Okay, Das gezeigte Boardlayout zeigt imo kein GDDR6 sondern LPDDR4X oder etwas ähnliches. Jedenfalls passten breite und Länge nicht zu den Daten von Micron.
Es sei den jemand hat den package footprint in die andere Richtung verzerrt im Vergleich zum CPU footprint.


https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=75271&stc=1&d=1620386092

Diesize ist irgendwas zwischen 51 und 89mm2. Package ein kostengünstiges 0.6mm Pitch FCBGA mit ca. 600-1000Pins bei 0.6mm Pitch. Speicheranbindung 64bit, LPDDR4X

Irgendwie sieht s so aus als hätte Igor uns da ein DG1 XE-Max PCB layout untergejubelt :rolleyes:



EDIT: Videcardz bestätigt dass es sich um ein DG2-128EU Layout handelt: https://videocardz.com/newz/intel-xe-hpg-based-dg2-128eu-gpu-board-diagram-has-been-leaked

davidzo
2021-05-07, 13:23:47
Das andere Package ist wesentlich interessanter. Wenn ich das Bild entzerre sieht es nach demselben Package aus welches in dem Videcardz Leak zu DG2-384 gezeigt wurde.

Die Diegröße kann entweder 238mm2 oder biszu 375mm2 werden:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=75272&stc=1&d=1620386619

Bei .6mm pitch kommt das package auf über 4000Pads. Um da auf 2660 zu kommen müssten die ganz schön viele Pads auslassen...

davidzo
2021-05-17, 13:24:58
Lol, was der Igor wieder schwafelt: https://www.igorslab.de/exklusiv-intel-arctic-sound-zwei-existierende-modelle-samt-specs-und-bildern/


Von Männerfreundschaften und euphorisch geschwungenen Speerspitzen von Selbstbewusstsein - Igors sexy-schmierige Sprachakrobatik in Aktion ;D (isch natürlisch zufall)

. Interessant ist jetzt allerdings die angegebene TDP für die Karte, die bei 150 Watt liegt. Das ist insofern interessant, als dass ja 75 Watt pro Consumer-Tile mit je 128 EUs kolportiert wurden und man dann mit 225 Watt hätte rechnen können, wären es drei kleine Tiles gewesen. Dass es jetzt nur 150 Watt sind legt den Schluss nahe, dass hier geringere Taktraten gefahren werden (müssen) und ein maximaler Ausbau mit 512 EU so nicht umzusetzen war oder die Yield-Rate es einfach nicht hergibt. Oder meinetwegen sogar beides.

Rolfcopter, Igor begründet die niedrige TDP, die übigens volkommen erwartet war und man anhand der geleakten tabelle zum SDV schon vor einem Jahr interpretieren konnte, ausgerechnet damit dass die Yields schlecht sind.

Pat, die Yield sind mies, lass uns die Karte sparsamer machen als geplant!


Statt der in der Summe dann theoretisch möglichen 512 EUs sind es in der Praxis nur 480 pro Einheit.

Uh oh, was ist wenn ihm jemand erzählt dass seine 3080 nur 68 von 84SMs aktiviert hat? Da muss ja richtig was im argen sein bei NV!
Und verbrauchen tut die 3080 auch nur 320Watt, nicht die vollen 350Watt die mit GA102 möglich wären und in leaks kolportiert waren!!! einfach Enttäuschend ;D
Und selbst die 3090, das absolute Topmodell hat nur 82 von 84SMs aktiv, was ist los mit euch nvidia @Jensen!!!111elf

Vielleicht sammelt man die 512EU Chips ja für die 4Tile Karte.
- Könnte man das nicht auch bei CPUs so machen, dass man immer nur bei den teuersten Modellen den full Die verbaut? Und zur Produktdifferenzierung auch Zeug deaktiviert was voll funktioniert damit man immer das maximum abschöpft was der Kunde bereits ist zu zahlen? - ach, das macht man so schon, achsooooo das hat Intel erfunden und auf die Spitze getrieben, - das muss einem doch mal jemand sagen;D



Die TDP gibt Intel mit nur 300 Watt an, was auf noch niedrigere Taktraten und erneut Probleme bei der Umsetzung schließen lässt.

Ganz klar, die Karten sind schlecht weil sie weniger Watts haben als die Ampere Karten! :ucrazy:
Ohne Watts keine Gigahurts :freak:

Da wird Igor aber von der 4-tile 500Watt Variante angetan sein wenn die rauskommt! Soviele Watts auf nur einer Karte, das muss ein heißes Teil sein :biggrin:
100Watts mehr als die A100! :uup:

Auch geil, wie Igor zum Schluss kommt dass es die 3T und 4T Karten nicht gibt weil sie in dem Leak jetzt nicht drin waren :facepalm:

Denn die angekündigten 3T- oder 4T-Karten fehlen in der aktuellen Liste komplett.

Klar, das ist die Natur von Leaks. Die müssen immer vollständig sein, sonst wäre das ja kein leak :ulol3:
Und wer hat denn sowas schon gesehen, dass unterschiedliche SKUs nicht gleichzeitig vorbereitet und gelauncht werden, das ist ja ganz merkwürdig!:ucrazy4:



BTW, das ist eh nicht XE HP-GAMING, sondern das sind in erster Linie bfloat16 Karten für AI Anwendungen von SMBs und Hyperscaler wie Facebook. Da wird erheblich auf Energieffizienz/TCO geachtet und da der Workload beliebig parallelisierbar ist, ist es auch egal wenn es statt einem unified 32gb HBM2e RAM pool "nur" 2x16gb gibt.

Auch der Vergleich mit PV ist lächerlich, denn XE-HPC ist eine komplett andere Architektur (vermutlich 64bit/DP only bei up to 128EU per tile) und wird gar nicht fei auf dem Markt erscheinen sondern nur in Supercomputern.


Aber Hauptsache Igor kann schonmal ein "Fazit" ziehen!


Geil auch die ganzen Igor-Minions in den Comments die da über die große Enttäuschung und das "kranken" von Intel schwafeln ganz im selben duktus wie der Große Boss.

Also ich sehe da nichts was nicht zum Erwarteten passt oder irgendwie darauf hinweist dass XE-HP nicht funktioniert, enttäuschend wird oder zurückgestellt wurde.
3072 Alus in 150Watt und 7680 in 300W sehen konkurrenzfähig zu Arcturus aus, inwieweit die BF16 Leistung mit A100 mit sparsity konkurrieren kann werden wir sehen, da ist glaube ich noch keine FP16/F16Rate bekannt.
Es gab ja mal diese 42Tflops+ Präsentation, die auf tatsächlichem silicon bei 1,3Ghz gelaufen sein soll (mit den vollen 512EUs pro tile). Wenn das stimmt, dann sind die Taktraten noch vergleichsweise hoch, deutlich höher als Arcturus 1090mhz und in der Nähe von Amperes 1410 Boostclock.

Und ihr?

HOT
2021-05-17, 14:12:13
Ich denke auch, dass seine Argumentation quatsch ist. Aber es scheint ja Tatsache zu sein, dass Intel 2 Produkte gecancelt hat und der Rest dürfte einigermaßen halbherzig finalisiert werden (und nein, das sieht man nicht an der TDP, eher am Salvagegrad).

Wenn die in 10nm gefertigt werden wundert das aber auch nicht, es sieht ja nicht so aus, als würde sich 10nm gut dafür eignen. Der Yield ist ja offenbar nach wie vor nicht gut. Und das wird der Grund für das "Scheitern" von Arctic Sound sein.

Die Consumer-Chips sind davon übrigens unberührt, dass sind andere Chips und die kommen ja auch in N6.

davidzo
2021-05-17, 14:16:48
Ich denke auch, dass seine Argumentation quatsch ist. Aber es scheint ja Tatsache zu sein, dass Intel 2 Produkte gecancelt hat und der Rest dürfte einigermaßen halbherzig finalisiert werden (und nein, das sieht man nicht an der TDP, eher am Salvagegrad).

Ist das so? ich habe den text gelesen, aber dazu bisher keine Quellen gefunden.
Es ist nicht hilfreich dass er die quelldaten gar nicht rausrückt, kann man aber verstehen.

Bloß weil er zwei Fotos von XE-HP hat und eine Liste mit Specs zweier Karten hat heißt das ja noch nicht dass irgendwas gestrichen wurde. Eine konkrete Aussage dass da was gestrichen wurden lässt sich auch Igor ja nicht entlocken, auch er schreibt was von "fehlen in der aktuellen Liste". Ein staggered Launch ist eigentlich eher üblich, kann aber auch sein dass die 4-tile Karten erstmal den hyperscalern vorbehalten sind, so wie bei epyc milan ein halbes Jahr lang. Und selbst dann kann eine Karte mit 7680Alus a 1,3Ghz und 20+ Tflops bei 300Watt durchaus konkurrenzfähig sein. Entscheidend ist ja die performance pro Watt bzw. pro Server.
Die Daten sind mit zwei Tiles wie gesagt bereits Arcturus/Mi-100 Territorium zumindest bei DP. Und wie konkurrenzfähig die reduced precision/AI Leistung sein wird weiß man leider noch nicht, aber bfloat16 ist ja Intels steckenpferd, da könnte man durchaus imstande sein die Mi-100 zu schlagen bzw. auch Ampere schon gefährlich werden.

HOT
2021-05-17, 14:19:50
Klar kannst du das anzweifeln, es sind halt nach wie vor Spekus. Aber ich halte das anhand der Fertigungssituation schon für plausibel - und Igor lag ja oft richtig trotz falscher Schlussfolgerungen.

Bei dem neuen hier:
https://www.igorslab.de/amd-radeon-rx-6600-xt-mit-8-gb-speicher-gleiches-bandbreitenlimit-wie-die-rx-5500-xt/

liegt er mMn von der Argumentation her auch total daneben, aber es wird sich bewahrheiten, die Radeons werden quasi nicht verbaut werden in Notebooks. Nur eben aus anderen Gründen.

davidzo
2021-05-17, 14:30:33
Ja, er lebt halt in seiner eigenen Welt.
Was mich überrascht ist dass er trotz seiner schrulligen Persönlichkeit doch immer wieder echte Industriekontakte aufbaut die im Regelmäßig leaks liefern. Hätte erwartet dass solche Informanten seriösere Kontakte bevorzugen, aber da scheint er mit seiner speziellen Art echt erfolgreich zu sein.


Der Salvagegrad ist übrigens gar nicht hoch. 512/480 das fast nichts (GTX480 ftw!). Nvidia nutzt bei A100 nur maximal 108 von 128 SMs (6912ALus von 8192). Das Instinct Mi-100 Topmodell hat denselben Salvagegrad mit 7680 Alus wie die 2-tile Karte.

384/512 sind 25% der Alus, aber 100% vom SI aktiv. Das ist auch nichts anderes als eine Radeon 6800 und nicht weit vom Salvagegrad des GA102 auf der 3080.

HOT
2021-05-17, 14:35:26
Ich halte ihn auch für seriös. Das schließt sich ja auch gar nicht aus. Wieviele Leute da draußen sind durchaus seriös und labern sehr viel Mist.

vinacis_vivids
2021-05-17, 19:13:06
Sieht wohl so aus, dass Raja seine 4096SP's, aus Fiji bzw. Vega uArch bis zum erbrechen im Labor hochgetaktet hat um zu erkennen, dass er mit Intel's Fertigung nicht mithalten kann.
Mittlerweile sind bei GPUs extrem viele Baustellen abzuarbeiten:

Kontrolllogik CPU to GPU instructions
Memorylogik und Cache Hierarchie, L1-L2-L3
Hohe dynamische Taktraten und damit verbunden auch die discard-Rate.
Branch predictions...
Treiberarbeit mit DX12 inkl. Ray-Tracing
Ausbeute und Salvage Verhältnis auf der Die.
Wirtschaftlich muss sich das für Intel auch lohnen.

Alles in allen gigantische Baustellen. Raja muss sicherlich auch intern bei Intel umstrukturieren, was sehr lange dauert.

Vom Marketing jetzt ganz abgesehen, liegt die Messlatte für GPU's mittlerweile extremst hoch.

Mittlerweile glaube ich so an einem "Fiji"-Flop, der durch eine bessere Fertigung höhere Taktraten erreicht, aber in vielen Dingen wie Treiber und Speicherverwaltung nicht mithalten kann.

Zusätzlich noch Ray-Tracing Hardware und Befehle, das schafft AMD gerade so noch.

Dann auch noch die CPU-Multicore - Nutzung.

Wahrscheinlich braucht Raja einfach mehr Zeit... Ende 2022 ist besser als Ende 2021 ist zu knapp.

mksn7
2021-05-17, 20:03:17
Branch predictions...


GPUs machen keine spekulative Ausführung und brauchen deswegen auch keine branch prediction.

davidzo
2021-05-18, 12:49:34
Lol, Vinacis denkt sich ein paar Begriffe aus um mit den coolen Kids mitzureden :biggrin:

XE-HP hat kein RT, kein DX12 etc. Das ist ein reiner Compute Beschleuniger.

Dass es zufällig 4096 Alus sind ist auch die einzige Gemeinsamkeit mit Fiji/Vega. Ab da hört das aber schon rapide auf. Intels Alus sind SIMD8 + SIMD2 in jeder EU, werden mit wavefront 8 angesteuert (und auf wunsch 16 + 32) und haben eigene registerfiles und thread controller. Intel kriegt die ALUs also wahrscheinlich besser ausgelastet und hat einen ein grundsätzlich anderen Ansatz als GCNs gigantischer Wavefront64 auf gruppierten 4xSIMD16. Auch mit Nvidias Alu Organisation ist das kaum vergleichbar, die haben wie RDNA auch mit Wavefront32 eine eher mittlere Größe.
Der Aufbau aus Subslices mit scheduling, dispatch, I$ und L1 ist eher ähnlich zu nvidias SMs, wobei die insgesamt viel kleiner sind mit nur 16EUs pro Subslice. Analog dazu entspräche 1 slice (96 oder 128EUs) dann einem GPC (Raster engine+subslices+rops).

Und wo siehst du bei Vega einen L3 wie XE den hat? Oder die vergleichsweise riesigen L1 caches von XE? Vega hat stattdessen gigantische register und nur wenig L1 organisiert auf 4x CU- Ebene, fette Crossbars für local data share und viel daran angeschlossener L2 cache (4mb total, aber ist effektiv partitioniert und pro 128kb 16fach assiziativ). Das ist ein extrem massiver L2 cache, vor allem von der Bandbreite. sowas ist bei XE völlig absent. Insofern wird es spannend wie XE im HPC Szenario performt. Ganz ohne Grund hat Ponte Veccio den Rambo Cache sicherlich nicht neben dem HBM2e.


Für Vinacis erklärt: RNDA und Turings ALU Organisation liegt architektonisch näher an GCN als XE and GCN. Die sind in total gegensätzlichen Richtungen :freak:
Dass Vega wie es aussieht eine ähnliche IPC wie XE erreicht ist also Zufall und hat nichts mit Raja zutun.
Raja ist auch erst gekommen als die grundsätzliche architektur schon in stein gemeißelt war. Er ist auch kein Archutektur engineer, sondern spezialist in Synthese, Fertigung und upbringing. Er bringt also Chips zum laufen die andere Leute designt haben. Testing und upbringing ist mittlerweile der größte und kritische Teil von Chipentwicklung.


Raytracing kannst du vergessen für XE-HP, aber es wird wohl sowas wie tensor cores kommen, Xe Matrix eXtensions (XMX).

XE ist vor allem jetzt schon sehr gut in reduced precision z.B. int8 (dp4a), das läuft auf der vierfachen Rate wie FP32.

vinacis_vivids
2021-05-18, 15:06:50
"Vega" uArch ist mit Vega20 nach wie vor eine hervorragende compute GPU. Der Fokus liegt dabei auf half, single und double precision weshalb die langen wavefront64 vorherrscht gepaart mit der riesigen Bandbreite.

Was Intel mit XE-HP da baut, ist eine abgewandelte compute GPU inkl. "Vega&Fiji" Skelett mit Fokus auf AI, also int4, int8 und fp16. Die kleinen caches sind da noch mehr optimiert auf "kurze" Rechenzeiteinheiten mit Unterbrechungen. Da brauchst du keine gigantische Bandbreite, sondern schnelles discards und einen feinen granularen sheluder.

Grundsätzlich haben alle neureren GPUs hardwaretechnisch gigantische Rechenleistungen parat, nur wird zuviel Abfall berechnet.

Raja hat dies auch schon gezeigt mit dem Mesh-Shader, der ja hauptsächlich die für das Auge nicht sichtbaren Teile möglichst schnell löscht und sozusagen die sichtbaren Teile als "Abfall" darstellt.

Das gleiche Spielchen mit VRS, wo es darum geht möglichst bei schnellen Bewegungen die schnellen int8, int4 zu werke kommen zu lassen während die anderen Teile ruhen.

Die höhere Geschwindigkeit wird mit höherer Komplexität der Programmierung erkauft, wobei Intel sicherlich sehr lange mit Treiberproblemen zu kämpfen haben wird, die sich in Grafikfehler und Artefakte zeigen, was bei AI nicht relevant ist, weil ohnehin das meiste unsichtbar im Datenmüll landet.

mksn7
2021-05-18, 15:20:32
"Vega" uArch ist mit Vega20 nach wie vor eine hervorragende compute GPU.


GCN ist eine hervorragende Architektur für compute ... im Vergleich zu Fermi/Kepler. Das ist aber lange her. Im Vergleich zu Volta/Ampere liegt CDNA (kaum Veränderung ggb GCN) in der MI100 in jeder Hinsicht zurück. Beim theoretischen Durchsatz hier und da vielleicht noch gleich auf, aber in der Praxis meilenweit entfernt. Der L1 cache seit Volta und der L2 cache seit Ampere, sowas braucht man for compute!

Ich hoffe sehr dass AMD für MI200, der ja auch in die großen Supercomputer soll, da noch ein bisschen was macht an ihrer angestaubten Architektur.


Bei Xe sieht man eine eindeutige Fortentwicklung der Architektur von gen9 zu gen 11 zu Xe. Die Architekturen grenzen sich eindeutig durch ein paar ungewöhnliche Sachen von dem ab was AMD/NVIDIA machen. Da ist nix mit Vega Basis oder so. Außer eben der Zahl 4096.

Loeschzwerg
2021-05-26, 18:48:13
Kleiner IGP Vergleich zwischen UHD 750, Iris Plus 940 und Iris Pro 580 in vier älteren Spielen (HL2LC, DirtRally, Dota2, Doom 2016):
https://youtu.be/UEWm7-ztkhs

Die gleichen Spiele im Gen12 Vergleich (Xe MAX, Xe G7 und UHD750)
https://youtu.be/48JUx6UEDj4

Bis auf in Doom sieht es eher mau aus für DG1 im Swift 3X.

dildo4u
2021-05-26, 18:52:34
TDP ist ein Witz wenn die Angaben stimmen (15 Watt) denke nicht das das gewollt ist die full Power MX 450 ist z.b bei 25Watt.

Loeschzwerg
2021-05-26, 18:56:22
Xe MAX -> pendelt um die 25W
Xe G7 IGP -> darf bis ca. 15W, je nach Last der IA Cores (gesamt 28W)

davidzo
2021-05-28, 14:58:28
Irgendwas ist doch bei der xe-max kaputt.

Dass sie mit 20-25W doppelt soviel verbraucht wie die integrierte XE mit 9-15W, geschenkt. Das wird am extra Speicherinterface und PCIe liegen (erstaunlich dass das 50% ausmacht trotz LPDDR4, nichtmal GDDR auf der XEmax).

Aber wie zum Teufel kann sie mit 50% höheren Taktraten (1650 vs 1000mhz) das Kunststück vollbringen dabei 10-20% langsamer zu sein?

Und noch schlimmer: Wie kann das durch die Qualitätskontrolle gerasselt sein? :freak:
Wenn man sowas feststellt, dann bringt man den chip doch nicht mehr raus und vor allem bundelt man den doch nicht exklusiv mit Tigerlake i7 Prozessoren die eine schnellere und sparsamere G7 schon integriert haben.

Das muss doch irgendeinem der beteiligten Ingenieure aufgefallen sein und dann zieht da hoffentlich mal jemand rechtzeitig den Stecker bevor solche schrecklichen Konifgurationen in teure Chassis von highend ultrabooks landen.

Waste of Sand X-(


Kein wunder dass die Motivation der Engineers bei Intel nicht stimmt. Entwickler die bereit sind ihre Lebenszeit in ein völliges bullshit produkt zu stecken (gegen angemessene Bezahlung) sind die falschen wenn es darum geht wirklich einen Fußabdruck im Markt zu hinterlassen.

Es ist ja schön und gut wenn man eine neue PDK baut und die CAD Toolchain einrichtet und dafür einen Pipecleaner braucht, aber muss man den unbedingt in diesem Format releasen? Niemand hätte etwas dagegen gesagt wenn die Karte als GT1030 Konkurrenz für Entrylevel i3 und alte Rechner kommt.

Loeschzwerg
2021-06-02, 08:13:49
DG2-512:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=75539&stc=1&d=1622614396

Quelle:
https://twitter.com/Rajaontheedge/status/1399966271182045184

Locuza
2021-06-02, 16:32:00
Auf Basis von Igors Dokumenten, die eine Package-Größe von 37.5mm x 43mm angegeben haben, komme ich auf ~396mm² für DG2-512:

https://abload.de/img/dg512-mini4bkf3.jpg

Rein von der Größe und dem Speicherinterface wäre das ein direkter Gegenspieler für den GA104 (z.B. RTX3070) von Nvidia.


Quelle:
https://www.igorslab.de/intel-xe-hpg-basierte-dg2-mit-5-verschiedenen-chips-neue-folien-und-bestaetigungen/

basix
2021-06-02, 18:55:06
Rein von der Größe und dem Speicherinterface wäre das ein direkter Gegenspieler für den GA104 (z.B. RTX3070) von Nvidia.

Wenn das erreicht wird, hätte Intel aus dem Stand eine konkurrenzfähige GPU designed. Wäre ein starkes Stück.

AffenJack
2021-06-02, 19:35:10
Wenn das erreicht wird, hätte Intel aus dem Stand eine konkurrenzfähige GPU designed. Wäre ein starkes Stück.

Gar nicht so verwunderlich mit 6nm. So schlimm waren die letzten IGPs nicht und 8nm Samsung vs 6nm TSMC ist nicht mehr so weit von einem Fullnodesprung Fertigungsunterschied. Auf 6nm angepasste Design waren ja auch nochmal 15% kleiner als 7nm meine ich.

Sunrise
2021-06-02, 20:40:57
Wenn das erreicht wird, hätte Intel aus dem Stand eine konkurrenzfähige GPU designed. Wäre ein starkes Stück.
Naja, aus dem Stand finde ich jetzt etwas übertrieben, man hat alle möglichen Leute abgeworben, 6nm verzerrt außerdem das Bild etwas, zudem fehlt es sicher massiv an SW-Optimierung.

Es ist prinzipiell super, wenn Intel die Dinger vielleicht sogar zu guten Preisen bringen kann, das tut dem Wettbewerb gut. Allerdings ist AMD da schon meilenweit voraus.

Solange Intel TSMC benötigt, sehe ich bzgl. Stückzahlen aber eher schwarz.

Distroia
2021-06-02, 21:49:19
Glaubt wirklich jemand ernsthaft, dass das Ding einer RTX 3070 gefährlich wird? Das wäre schon eine große Überraschung. Würde mich sehr wundern, wenn sie im Schnitt nicht mehr als 20% hinten liegt, ohne Raytraycing und DLSS.

Timbaloo
2021-06-02, 22:18:41
20% wäre ziemlich gut imho. Wenn dann die Verlustleistung vielleicht auch unter 3070 liegt, dann wäre das schon konkurrenzfähig. Gerade hinsichtlich der aktuellen Preissituation wo man ja fast eher kaufen muss was man kriegen kann.

Weiß man was das Dingens hinsichtlich RT kann bzw. können soll?

Fusion_Power
2021-06-02, 23:35:13
Wenn das erreicht wird, hätte Intel aus dem Stand eine konkurrenzfähige GPU designed. Wäre ein starkes Stück.
Ich warte dann lieber finale Benchmarks ab. Und keine synthetischen sondern echte Gaming Benchmarks. Denn ob die Intel Treiber für die dedizierten GPUs dann wirklich was taugen, weiß jetzt noch niemand. Ich denke mal damit steht und fällt alles, egal wie potent die Hardware auch sein mag.

HOT
2021-06-03, 09:42:08
Ich bin sehr gespannt auf die RT-Implementierung. Ich glaub nicht, dass diese so stiefmütterlich ist wie in RDNA2. Das wird ein Kernkriterium im Design gewesen sein, denn hier kann man als Underdog richtig punkten - und Intel hat schon KnowHow auf dem Gebiet.

Das Ding wird nur deshalb gut, weil man sich dafür entschieden hat den in N6 zu bringen mMn. Intels Profibeschleuniger in 10nm sehen hingegen ja nicht so gut aus offenbar. Die Hardware wird schon sehr gut, die Software ist das Sorgenkind.

basix
2021-06-03, 10:04:22
Naja, Intel kann sehr gute SW bauen, wenn sie denn wollen. Auf RT bin ich auch gespannt. Bezüglich DLSS alike Upsampling gab es auch schon Gerüchte.

Gibt es eigentlich Infos zum Releasezeitraum?

w0mbat
2021-06-03, 10:29:26
Naja, Intel kann sehr gute SW bauen, wenn sie denn wollen. Auf RT bin ich auch gespannt. Bezüglich DLSS alike Upsampling gab es auch schon Gerüchte.

Gibt es eigentlich Infos zum Releasezeitraum?
Intel will wohl auch fsr nutzen.

dildo4u
2021-06-03, 10:40:53
AMD hat schon gesagt das Nvidia erstmal für FSR optimieren muss.
Intel will vermutlich Technik haben die besser auf ihrer Hardware läuft.
Und Intel legt auch ordentlich Fokus auf ML, da erwarte ich deutlich forschrittlichere Technik als FSR.

basix
2021-06-03, 10:44:11
Intel will wohl auch fsr nutzen.

Können sie. Die Gerüchte gingen aber eher in die Richtung, dass sie etwas eigenes haben.

AffenJack
2021-06-03, 10:45:35
Intel will wohl auch fsr nutzen.

Sie werden niemanden verbieten es zu nutzen, wird ja auch auf Ihrer Hardware laufen. Ansonsten war Rajays Twitter Post sehr unklar und es kann auch sein, dass sie ihre eigenen DL basierten Lösungen bringen werden, die aber für alle nutzbar sein sollen. Z.B. ne DirectX ML basierte Lösung.

JVC
2021-06-03, 11:48:31
Solange es nicht proprietär ist, immer her damit :)

M.f.G. JVC

Dural
2021-06-03, 12:14:08
Ich kann den Typ nicht haben, Wichtigtuer und gross Sprüche klopfen kann er, hat der im GPU Bereich jemals was Gescheites gemacht? Vega? :freak:

Ich glaube AMD war gar nicht so unfroh das er zu Intel gewechselt ist.

arcanum
2021-06-03, 12:38:52
Intel will wohl auch fsr nutzen.

intel arbeitet an einer eigenen lösung namens XeSS. bislang gibt es außer dem gerücht aber keine informationen über die implementierung.

Das Ding wird nur deshalb gut, weil man sich dafür entschieden hat den in N6 zu bringen mMn. Intels Profibeschleuniger in 10nm sehen hingegen ja nicht so gut aus offenbar. Die Hardware wird schon sehr gut, die Software ist das Sorgenkind.

der letzte stand war, dass die compute tiles bei ponte vecchio von TSMC in 7nm produziert werden. lediglich der cache wird in 10nm ESF produziert. das teil ist in erster linie auf video-streaming ausgelegt. ich schätze, dass das eingeschränkte aufgabenfeld keine große herausforderung im hinblick auf die software darstellen sollte. das größere problem aktuell ist wohl, wie bei allen herstellern, die verfügbarkeit bzw. fertigungskapazität.

Fusion_Power
2021-06-03, 15:06:02
der letzte stand war, dass die compute tiles bei ponte vecchio von TSMC in 7nm produziert werden. lediglich der cache wird in 10nm ESF produziert. das teil ist in erster linie auf video-streaming ausgelegt. ich schätze, dass das eingeschränkte aufgabenfeld keine große herausforderung im hinblick auf die software darstellen sollte. das größere problem aktuell ist wohl, wie bei allen herstellern, die verfügbarkeit bzw. fertigungskapazität.

Jetzt wäre eigentlich die ideale Zeit für Intel, dedizierte Grafikkarten in ausreichender Stückzahl raus zubringen. Wenn Intel selber Fertigungskapazitäten hat sollten sie die auch nutzen. Der Markt würde derzeit wohl alles kaufen was auch nur irgend wie wie ne Grafikkarte aussieht.

davidzo
2021-06-03, 16:18:46
DG2-512:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=75539&stc=1&d=1622614396

Quelle:
https://twitter.com/Rajaontheedge/status/1399966271182045184


Da lag ich ja mit 375mm2 und exzentrischer DIE Positionierung gar nicht so falsch.
Besser als @OneRaichu mit seinen geschätzten 190mm2. Ich habe nur dummerweise die Länge von ihm ungesehen übernommen, die ist nun offensichtlich 24mm und nicht 22mm. Die breite von 16mm konnte man schon am Pinout gut bestimmen.





intel arbeitet an einer eigenen lösung namens XeSS. bislang gibt es außer dem gerücht aber keine informationen über die implementierung.



der letzte stand war, dass die compute tiles bei ponte vecchio von TSMC in 7nm produziert werden. lediglich der cache wird in 10nm ESF produziert. das teil ist in erster linie auf video-streaming ausgelegt. ich schätze, dass das eingeschränkte aufgabenfeld keine große herausforderung im hinblick auf die software darstellen sollte. das größere problem aktuell ist wohl, wie bei allen herstellern, die verfügbarkeit bzw. fertigungskapazität.

Wo hast du das mit videostreaming her? Bisherige Diagramme legen eher nahe dass ponte veccio keinen einzigen media decode block hat im Gegensatz zu den consumerkarten. Verwechselst du das vielleicht mit SG1, Intels Quad DG1 VCA Karte?

arcanum
2021-06-03, 18:12:42
Wo hast du das mit videostreaming her? Bisherige Diagramme legen eher nahe dass ponte veccio keinen einzigen media decode block hat im Gegensatz zu den consumerkarten. Verwechselst du das vielleicht mit SG1, Intels Quad DG1 VCA Karte?

zumindest bei Xe HP scheint video streaming ein haupteinsatzzweck zu sein:

https://www.servethehome.com/intel-xe-sg1-hp-and-dg1-at-architecture-day-2020/

nehme an, dass HPC einfach eine variante mit mehr chiplets ist oder unterscheiden sich die chiplets bei beiden varianten grundlegend?

TheAntitheist
2021-06-04, 15:27:34
Ich kann den Typ nicht haben, Wichtigtuer und gross Sprüche klopfen kann er, hat der im GPU Bereich jemals was Gescheites gemacht? Vega? :freak:

Ich glaube AMD war gar nicht so unfroh das er zu Intel gewechselt ist.
es gibt Gerüchte das AMD sogar 2 Kühe dafür bekommen hat :freak:

Gebe dir vollkommen recht, seitdem er bei AMD war ging es Berg ab, nach seinem Abgang gehts wieder aufwärts. Kann ein Zufall sein, bezweifle ich aber.

davidzo
2021-06-04, 15:29:57
zumindest bei Xe HP scheint video streaming ein haupteinsatzzweck zu sein:

https://www.servethehome.com/intel-xe-sg1-hp-and-dg1-at-architecture-day-2020/

nehme an, dass HPC einfach eine variante mit mehr chiplets ist oder unterscheiden sich die chiplets bei beiden varianten grundlegend?

Ich glaube das haben sie nur gezeigt weil die Media encode blöcke bei XE-HP eben das erste sind was schon läuft und vorzeigbar ist. Das hat abe rnichts mit PV zutun, würde mich wundern wenn in Aurora irgendwas mit media encode gemacht wird :freak:

PV ist ein reines Double precision HPC-Vehikel.

XE-HP selbst hat auch eher den Fokus single precision FP compute und reduced precision, also ai, inferencing und training. Das sind ja meistens Bilderkennungsalgorithmen, ein paar fette video decode und encode blöcke können da also helfen die Daten rein und raus zu bekommen. Die werden das wohl hauptsächlich an hyperscaler vermarkten, z.B. um copyright geschützte materialien in videostreams zur Laufzeit zu erkennen, etc.


Dass es sehr verschiedne XE Architekturen gibt, die nichtmal von den Recheneinheiten und unterstützten features gleich sind hatte Intel ja vorher schonmal deutlich gemacht:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=75566&stc=1&d=1622813377
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=75567&stc=1&d=1622813377

Loeschzwerg
2021-06-11, 10:07:03
https://www.techpowerup.com/283212/gunnir-announces-intel-iris-xe-dg1-graphics-card

Ein weiterer Hersteller baut DG1 Karten für OEM Systeme.

Loeschzwerg
2021-06-17, 18:09:37
Und da ist die ASUS DG1 in einem ersten Test und oh Wunder... DG1 funktioniert:
YobEdN3akfo

Board ist ein Asus Prime B560M-A.

Igzorn
2021-06-18, 07:16:52
Und da ist die ASUS DG1 in einem ersten Test und oh Wunder... DG1 funktioniert:
https://youtu.be/YobEdN3akfo

Board ist ein Asus Prime B560M-A.

Dafür das Igor sagt das da nichts drauf läuft sieht das doch gar nicht mal schlecht aus, Performance ist jedoch wie erwartet.

HOT
2021-06-18, 09:08:19
Als Igor das Teil getesetes hat war der Zustand der Treiber halt katastrophal. Jetzt scheint es endlich brauchbare Treiber zu geben. DG1 war für Intel extrem wichtig um die Software zum Laufen zu bringen für DG2 mMn.

Loeschzwerg
2021-06-18, 09:34:06
Nope, das lag/liegt nicht am Treiber, sondern vielmehr dass die Testplattform mit dem DG1 SDV völlig kaputt ist/war.

Leonidas
2021-06-18, 11:24:29
Erste Performance-Werte zu Intels DG2-Grafikkarten aufgetaucht
https://www.3dcenter.org/news/geruechtekueche-erste-performance-werte-zu-intels-dg2-grafikkarten-aufgetaucht

Shink
2021-06-18, 11:44:13
Ob da wirklich so viele Varianten gebaut werden von "langsamer als ein AMD-IGP" bis "Radeon 6700XT"?

Loeschzwerg
2021-06-18, 14:01:59
Um die 5 DG2 SKUs sind doch nicht viel und DG1 dürfte eh recht bald auslaufen. Passt schon würde ich meinen.

Hängt letztendlich auch davon ab wie gut die Varianten skalieren und die Ausbeute ist. Man verwurstet was man hat :)

Fusion_Power
2021-06-18, 14:16:31
Ich bin dann auch echt mal über die Preise gespannt...und die Verfügbarkeit der Intel Grafikkarten. Intel könnte theoretisch gerade jetzt unglaublich viele Marktanteile sichern, sofern sie liefern können. :)

ChaosTM
2021-06-18, 14:30:11
3070er Leistung bei ähnlichem Stromverbrauch wäre schon recht gut für einen "Newcomer".

aufkrawall
2021-06-18, 14:49:13
Anders als die IGPs, können die großen dedizierten GPUs HW-Raytracing?

Asaraki
2021-06-18, 14:51:37
Ich bin dann auch echt mal über die Preise gespannt...und die Verfügbarkeit der Intel Grafikkarten. Intel könnte theoretisch gerade jetzt unglaublich viele Marktanteile sichern, sofern sie liefern können. :)

Erstmal die Hashrate abwarten sonst kannst du das auch gleich wieder vergessen xD

Just for the lols :
nVidia ist einfach schlau und baut als erste Firma eine Bremse ein. Alle lachen.
18 Monate später : 95% aller aktuellen Gaming-PCs haben einen nVidia, alle anderen Karten stecken in Mining-Rigs.
24 Monate später : AMD zieht sich aus dem Gaming zurück, da die UE6 nVidia-exklusiv wird xD

mczak
2021-06-18, 15:47:44
Ob da wirklich so viele Varianten gebaut werden von "langsamer als ein AMD-IGP" bis "Radeon 6700XT"?
Ich würde mal vermuten das sind höchstens 3 verschiedene Chips. Und wenn diese 5 Varianten tatsächlich so verkauft werden scheint mir das nicht übertrieben, bei nvidia ist der Unterschied zwischen verschiedenen Versionen oft deutlich geringer. Zwischen DG2-128 und DG2-256 klafft sogar ein grosses Loch.

Fusion_Power
2021-06-18, 15:53:04
Erstmal die Hashrate abwarten sonst kannst du das auch gleich wieder vergessen xD

Na ich hoffe doch die wird bei 0 oder so liegen, es hindert Intel ja niemand dran auch gleich ne Mining-Bremse mit einzubauen. :D
Dazu bin ich ehr an den kleineren Grafikkarten um die 70W interessiert, diese sind hoffentlich sowieso uninteressant für jegliche Mining-Ambitionen. Und genau diese sollten dann auch ausreichend und vor allem preiswert zur Verfügung stehen. Ich denke dabei gar nicht an die dicken Boliden die ner RTX 3080 Konkurrenz machen sollen. Ob die rar sind und bleiben juckt mich tatsächlich wenig.

Leonidas
2021-06-18, 15:58:00
Anders als die IGPs, können die großen dedizierten GPUs HW-Raytracing?

Ja, wurde IMO versprochen.

-/\-CruNcher-/\-
2021-06-18, 16:15:14
3070er Leistung bei ähnlichem Stromverbrauch wäre schon recht gut für einen "Newcomer".

Vor allem haben AMD und Nvidia keine chance gegen Quicksync und das dediziert und dann noch im Dual Usage auf einem Intel IGP + DG2 :D

Selbst AMDs Full Architecture Build wird sich daran die Zähne ausbeisen ;)

Mit dem Know how in dem Software/Hardware Kern kann man gespannt auf ihre SR Ergebnisse sein kombiniert mit ihrer AI Aufholjagd auf Apples Ergebnisse wird das schon was ;)

HW-Raytracing kann man auch gespannt sein da sind sie auch nicht seit gestern erst dran Quake Raytracing war Intels steckenpferd nicht Nvidias.

Daniel Pohl arbeitet da auch nicht wie beklopt seit gestern erst dran und jetzt hat er komplette mit Entscheidung beim Hardware/Software Ökosystem aufbau.

Hey Raja ich brauch das und das wäre auch schön ;)

Er konnte sich hier jetzt direkt an der Source einbringen und den Aufbau mitgestalten über die Jahre seine Arbeit zusammen mit anderen im Lab auf die Intel GPU im CPU zusammenspiel innerhalb Intels HSA übertragen ;)

UKj4mq0e1OE
2PRVfblC6_k
qDyOcAhVpdE

Lehdro
2021-06-18, 16:25:09
Vor allem haben AMD und Nvidia keine chance gegen Quicksync und das dediziert und dann noch im Dual Usage auf einem Intel IGP + DG2 :D

Selbst AMDs Full Architecture Build wird sich daran die Zähne ausbeisen ;)
Auf was beziehst du das? Streaming? Da ist NV > Intel > AMD, wobei man mit AMD einfach den Holzhammer rausholen kann (CPU) so fern man das bezahlen will. Ansonsten ist Quicksync mittlerweile eher ein Gimmick.

Asaraki
2021-06-18, 16:54:55
Na ich hoffe doch die wird bei 0 oder so liegen, es hindert Intel ja niemand dran auch gleich ne Mining-Bremse mit einzubauen. :D
Dazu bin ich ehr an den kleineren Grafikkarten um die 70W interessiert, diese sind hoffentlich sowieso uninteressant für jegliche Mining-Ambitionen. Und genau diese sollten dann auch ausreichend und vor allem preiswert zur Verfügung stehen. Ich denke dabei gar nicht an die dicken Boliden die ner RTX 3080 Konkurrenz machen sollen. Ob die rar sind und bleiben juckt mich tatsächlich wenig.

Wir werden's ja sehen. Imho wäre keine Bremse eine kluge Entscheidung. Kommt der Chip beim eigentlichen Zielpublikum leicht unter den Erwartungen an könnte er sich trotzdem noch sehr gut verkaufen (und du kannst zumindest mal Absatz generieren), wenn die Miner ihn aufgrund des tiefen Preises auch einsetzen.

Just saying - kann auch hilfreich sein für Intel.

Fragman
2021-06-18, 20:37:37
HW-Raytracing kann man auch gespannt sein da sind sie auch nicht seit gestern erst dran Quake Raytracing war Intels steckenpferd nicht Nvidias.


Mit der Übernahme von mental images durch nvidia hat sich das aber komplett geändert. Vor allem die Strategie die nv mit deren Ökosystem seit dem fährt.
Auch wenn intel mit embree da seit Jahren dran bleibt.
Ein Grund weshalb das interessant werden könnte und hoffentlich wird.

-/\-CruNcher-/\-
2021-06-18, 22:53:07
Richtig am meisten hat AMD verschlafen als Nvidia neben Mental Ray dann I-ray brachte aus der Kooperation mit Siemens die ich nie so richtig verstanden habe nur das sie damit Archviz und Pro Summer extreme auf ihrer Hardware gepushed haben um Verbreitung zu erlangen in den Köpfen und MDL auch dort schnell zu verbreiten mit dem Lower tier und doch sehr limitierten Path Trace Render Spinoff unter anderem in Daz3D bis sie dann alles endgültig Realtime ready hatten und auf die RT cores ausrichteten inklusive Render Material Interoperability und schon zu dem Zeitpunkt klar war ohne DLAA/SS wird das überhaupt nichts.

Die damalige präsentation von AMD von ihrem Renderer war ein absoluter Witz zu dem Zeitpunkt genauso wie Baikal nur ein hilfeschrei darstellte während Nvidia schon mit der outside Lizensierung ihrer Render Tech im Production Ready Render berreich meilenweit entfernt war.
Der einzige der ordentlich druck gemacht hat war Jules Urbach mit Otoy gegen Goliat dann aber selbst ja CUDA mit einbezog und dann seine eigenen Hardware Koop pläne nach RTX praktisch aufgab.
Pro Render ist heute noch ein Witz AMD hätte lieber versuchen sollen Urbach einzukaufen bevor er sich von AMD verabschiedete mit seinem Otoy Kern.
Jetzt können sie nur noch beten das er ordentlich Performance aus RDNA2 und Vulkan zieht.

=Floi=
2021-06-18, 23:22:56
man könnte die geschätzten TF noch in der tabelle ergänzen.

Naj, zum zocken würde ich jetzt nicht auf intel setzen. Ich sehe deren größten nutzen im gpu markt eher im durchführen von berechnungen.

-/\-CruNcher-/\-
2021-06-18, 23:59:55
Apropo Baikal lassen wir uns mal schauen wie Nvidia in AMDs eigenem Benchmark mit Ampere abschneidet shall wee ;)

Skysnake
2021-06-19, 16:45:11
Phase Two will rely heavily on the latest technology from Intel. It will include 240 compute nodes that each will house two Intel “Sapphire Rapids” Xeon Scalable processors (due out later this year) and four of Intel’s upcoming “Ponte Vecchio” Xe-HPC GPUs designed for supercomputers running in what Tease calls ThinkSystem SD6450 “fat nodes.” The system will deliver more than 13 petaflops of performance, he says. Overall, the compute nodes in the second phase will deliver four times the performance-per-watt of those in Phase One

Auf nextplatform.com

basix
2021-06-20, 00:04:34
13 PFLOPs bei 240*4 Ponte Vecchio? Wären "nur" 13.5 TFLOPs pro GPU. Saphire Rappids CPUs da noch ausgeklammert. AMD schafft mit MI100 11.5 TFLOPs (300W) und Nvidias A100 9.7 TFLOPs (400W). Irgendwie hätte ich für Ponte Vecchio mehr erwartet.

davidzo
2021-06-21, 10:16:10
13 PFLOPs bei 240*4 Ponte Vecchio? Wären "nur" 13.5 TFLOPs pro GPU. Saphire Rappids CPUs da noch ausgeklammert. AMD schafft mit MI100 11.5 TFLOPs (300W) und Nvidias A100 9.7 TFLOPs (400W). Irgendwie hätte ich für Ponte Vecchio mehr erwartet.


Nur 20% mehr FP64 als ein über ein jahr alter monolitischer AMD-chip ist tatsächlich ein bisschen underwhelming für so ein Multichip Monster. Vor allem wenn man mit einbezieht dass die OAM Module in denen PV hier vermutlich auch eingesetzt wird, bis zu 600Watt verbrauchen dürfen.

Allerdings scheint sich bei PV vieles um den Interconnect zu drehen, vermutlich ist das eines der Skalierungsprobleme mit herkömmlichen Beschleunigern wie Arcuturs und A100 im HPC Exascale Einsatz.
Mi-100 hat nur 340gb/s off card, A100 immerhin bis zu 600gb/s. PV sollte da eine schippe drauf legen können.
Die 1,26tb/s bandbreite von Mi-100 sind außerdem in viel schlechterem verhältnis zum compute als noch bei der Mi-50. Da dürfte es durchaus loads geben wie bandwith starved sind.

dildo4u
2021-06-21, 11:17:36
Frametimes sind immer noch Müll nicht mal Fortnite läuft normal.


HSseaknEv9Q

konkretor
2021-07-30, 20:07:37
https://www.neowin.net/news/intel-xe-hpg-dg2-discrete-gpu-reportedly-delayed-now-arriving-at-ces-2022/


Wohl doch erst im Juni 2022, oh man

Neurosphere
2021-07-30, 20:34:33
Auch wenn DG2 noch nicht draußen ist und man erstmal abwarten muss wie er performt:

Da man bei AMD und NV immer mehr zu den next Gen Archs hört, wie sehen eigentlich die Pläne bei Intel nach DG2 aus? Will man erst abwarten wie das ganze im Markt ankommt oder gab es schonmal was zu den nächsten Plänen?

arcanum
2021-07-30, 21:37:35
https://www.neowin.net/news/intel-xe-hpg-dg2-discrete-gpu-reportedly-delayed-now-arriving-at-ces-2022/


Wohl doch erst im Juni 2022, oh man

Die CES findet nächstes Jahr im Januar statt.

davidzo
2021-07-30, 21:59:27
Die CES findet nächstes Jahr im Januar statt.

Ja aber im Artikel steht dass es ein mobile first launch wird und die dicken chips erst später kommen.
Daher ist Juni, Q2 schon nicht ganz falsch geschätzt.
Mobile first ist wohl einfacher, da man mit DG1 ja schon Erfahrung in der Klasse hat. Wäre aber ziemlich enttäuschend wenn man in 2 Jahren nur mehr einen lauen refresh eines bereits gescheiterten Produkts herausbringt.

arcanum
2021-07-30, 22:10:54
Ja aber im Artikel steht dass es ein mobile first launch wird und die dicken chips erst später kommen.
Daher ist Juni, Q2 schon nicht ganz falsch geschätzt.
Mobile first ist wohl einfacher, da man mit DG1 ja schon Erfahrung in der Klasse hat. Wäre aber ziemlich enttäuschend wenn man in 2 Jahren nur mehr einen lauen refresh eines bereits gescheiterten Produkts herausbringt.

Der leaker im Artikel spricht von einem launch von DG2 zur CES. Laut anderen Quellen sollen die anderen Varianten vorher launchen, also wahrscheinlich noch dieses Jahr. wenn intel das ding erst mitte des nächsten jahres bringt können sie es gleich einmotten, da zeitnah die nächste generation von nvidia und amd startet. DG2 ließe sich dann nur mit einem erheblichen price cut unters volk bringen.

Blediator16
2021-07-31, 00:37:06
Intel nannte die PR Moves doch odyssey oder sowas. Sie fingen mit dem PR Müll bereits 2020 an. Bis Sommer 2022 wird es eine wahre Odyssee gewesen sein ;D

davidzo
2021-07-31, 16:04:44
Das hat mich schon immer gewundert dass man so einen negativ konnotierten begriff nimmt. Das heißt ja praktisch ziellos hin und her irren. Wer erstmal drauf ist auf dem boot kommt so schnell nicht wieder raus, die hälfte stirbt bis der Rest irgendwo ausgespuckt wird.
Klingt nach nem spannenden Spielfilm, aber nicht nach einer Produktentwicklungsstrategie. Das ist echt ein mutiger move von Raja so offen nach außen zu tragen dass man quasi hilflos drauf los entwickelt ohne genau zu wissen wann und wo man nachher landet.

Unicous
2021-07-31, 16:13:46
Odyssey ist afaik nicht so negativ konnotiert wie z.B. im Deutschen,

siehe auch


1 : a long wandering or voyage usually marked by many changes of fortune

2 : an intellectual or spiritual wandering or quest

https://www.merriam-webster.com/dictionary/odyssey

Und da die Amis gerne in romantisierten Metaphern wie dem American Dream schwelgen und dabei gerne die negativen Seiten außen vor lassen, ist es völlig logisch warum sie Odyssey ins Positive wandeln.:wink:

konkretor
2021-08-03, 09:06:44
Noch mehr Benchens


https://videocardz.com/newz/intel-xe-hpg-dg2-128eu-gpu-shows-up-with-2-2-ghz-clock-at-geekbench

vinacis_vivids
2021-08-03, 09:44:05
Die angezeigten 2,2Ghz ist doch ein sehr guter GPU-CLK und absolut Konkurrenzfähig. Wenn das für die 512EU/4096SP auch gilt, dann sind es max. fp32 ~ 18 Tflop/s mit ner vergleichbaren vllt. etwas besseren IPC als Vega10.

Dann sind 3060Ti/6700XT/3070 die Konkurrenten, was immer noch sehr beachtlich ist. Intel kann dann sicher in der Preisklasse mit dem großen 16GB Speicher glänzen und einige Käufer von Nvidia abwerben. Ich denke selbst, wenn die fps vergleichbar sein, dass Kunden zum größeren Speicher greifen werden und ein Markt dafür da ist.

Viele Speicher und hoher Takt lassen sich sicher gut vermarkten, auch wenn die Treiber bis dahin noch nicht ganz auf der Höhe sind.

basix
2021-08-03, 10:38:42
Wenn Intel mit Xe-512...
- ...die 3070 in Raster erreicht
- ...bei vergleichbarer Energieeffizienz
- ...mit 16GByte
- ...konkurrenzfähiger RT Leistung (Ampere > Xe > RDNA2, da Xe wie Turing/Ampere auch BVH Traversal via RT Cores unterstützen soll)
- ...konkurrenzfähigem Temporal Upsampling (Xe soll Matrizen-Operationen beschleunigen können und "Xe-SuperSampling" soll in der Mache sowie Open Source sein)
- ...anständige und stabile Treiber bekommt (Intel ist bezüglich SW eigentlich sackstark)

--> Wäre einfach nur Wow!

Aber: Viel "wäre", "wenn" und "soll". Es gibt dennoch einige Indizien, welche in diese Richtung tendieren.

WedgeAntilles
2021-08-03, 10:52:46
Klingt in der Theorie ja sehr gut - nur: In der Praxis ist alles was man bisher von den Intel GPUs hatte mit einem Wort zusammenzufassen:
Müll.

Sorry, ist leider so.
Miese Leistung, schlechte Treiber, Instabil, läuft teileweise überhaupt nicht.

Das soll sich alles in den nächsten 6 Monaten radikal ändern?
IMO zu schön um wahr zu sein.

In wie fern Intel Nvidia Kunden gewinnen kann sei auch mal dahingestellt.
Viele Nvidia Käufer wollen "dass es halt funktioniert", viele Kaufen Nvidia weil sie das seit Jahren tun.
"Offen für Experimente" oder "Lust auf was Neues" oder "experimentierfreude" sind nicht unbedingt die Attribute, die die meisten Nvidia Käufer haben schätze ich. (Ich auch nicht.)

Die meisten Nvidia Käufer wollen schon kein AMD weil die Treiber abschrecken - weil man halt vor 10 Jahren mal schlechte Erfahrungen gemacht hat.

Und da soll ein nennenswerter Teil jetzt zu einem völlig neuen Anbieter greifen?
Mag sein, dass der Name Intel funktioniert.
Wenn der Preis signifikant niedriger ist (bei gleicher Leistung halber Preis) kann es vielleicht tatsächlich funktionieren.

Und da jetzt schon 2022 im Raum steht ist es dann bis "März 2022 oder Mai 2022" auch nicht mehr weit - und dann stehen langsam aber sicher RDNA3 + Lovelace in den Startlöchern. Und dann ist eine 3060 / 3070 Performance plötzlich nicht mehr toll.

Im ersten Quartal des Jahres war ich noch halbwegs hoffnungsvoll, dass Intel vielleicht eine Chance hat, sich als dritter Player zu etablieren.

Aber inzwischen glaube ich es nicht mehr.
Dafür sind die ganzen Test die Igor und Co durchgeführt haben zu ernüchternd.
Und die Verschiebungen die es jetzt immer wieder gibt zu lang.

Hoffentlich täusche ich mich und Intel bringt ein gutes Produkt raus, das vor allem gute und stabile Treiber hat.
Ein 3. Anbieter täte dem Markt sehr sehr gut.

AffenJack
2021-08-03, 11:22:36
Wenn Intel mit Xe-512...
- ...die 3070 in Raster erreicht
- ...bei vergleichbarer Energieeffizienz
- ...mit 16GByte
- ...konkurrenzfähiger RT Leistung (Ampere > Xe > RDNA2, da Xe wie Turing/Ampere auch BVH Traversal via RT Cores unterstützen soll)
- ...konkurrenzfähigem Temporal Upsampling (Xe soll Matrizen-Operationen beschleunigen können und "Xe-SuperSampling" soll in der Mache sowie Open Source sein)
- ...anständige und stabile Treiber bekommt (Intel ist bezüglich SW eigentlich sackstark)

--> Wäre einfach nur Wow!

Aber: Viel "wäre", "wenn" und "soll". Es gibt dennoch einige Indizien, welche in diese Richtung tendieren.

Ich weiß nicht, was da so ein WoW wäre. Intel baut seit Ewigkeiten GPUs und totaler Schrott sind deren IGPs schon lange nicht mehr. Software ist heutzutage die größte Baustelle.
Dazu hat man mit 6nm nen Riesen Prozessvorsprung, nicht umsonst soll ja auch N33 in 6nm kommen.

fondness
2021-08-03, 11:28:29
Wenn Intel mit Xe-512...
- ...die 3070 in Raster erreicht
- ...bei vergleichbarer Energieeffizienz
- ...mit 16GByte
- ...konkurrenzfähiger RT Leistung (Ampere > Xe > RDNA2, da Xe wie Turing/Ampere auch BVH Traversal via RT Cores unterstützen soll)
- ...konkurrenzfähigem Temporal Upsampling (Xe soll Matrizen-Operationen beschleunigen können und "Xe-SuperSampling" soll in der Mache sowie Open Source sein)
- ...anständige und stabile Treiber bekommt (Intel ist bezüglich SW eigentlich sackstark)

--> Wäre einfach nur Wow!

Aber: Viel "wäre", "wenn" und "soll". Es gibt dennoch einige Indizien, welche in diese Richtung tendieren.

IMO kannst du zumindest das mit den Treibern vergessen, die sind nach wie vor Müll. Vergleichbare Energieeffizienz halte ich auch für fragwürdig. Gut bei 6nm sollte das vielleicht sogar machbar sein. Ansonsten ist das mit dem Termporalen Upsampling und dem der RT-Leistung wohl eher Wunschvorstellung als alles andere, oder gibt es da schon irgendwas belastbares? Und selbst wenn, wow wäre das wohl kaum.

basix
2021-08-03, 12:37:53
Wie gesagt: Wenn. Und wenn euch das nicht beeindruckt: Ihr sagt ja selbst, dass Intels GPUs heute Müll sind. Und es wäre nicht Wow, wenn Intel mit der ersten dGPU Genration in den meisten Aspekten zur Konkurrenz aufschliessen oder zumindest nahe kommen würde? Gleichzeitig erwartet ihr von Intel aber dennoch nur Müll? Überprüft bitte die Logik eurer Erwartungshaltung.

Und wieso die Treiber heute Müll sind: Ist bei iGPUs einfach kein grosses Verkausfargument. Bei teuren dGPU wird Intel deutlich mehr liefern müssen, sonst klappt das nicht. Und das weiss Koduri. Intel hat sehr viele fähige SW-Ingenieure und nun wird mit Xe das erste Mal richtig Geld und Mannstunden reingebuttert. AMDs iGPU Treiber sind auch nicht über alle Zweifel erhaben, obwohl sie schon seit langem APUs und dGPUs bauen.

Ich erwarte nicht, dass Intel in allem glänzen wird oder von Anfang an reibungslos läuft. Aber so pessimistisch wie ihr sehe ich das noch lange nicht.

Sunrise
2021-08-03, 12:43:39
Wenn Koduri erfolgreich vermittelt hat, dass Marketing hier eher zweitrangig ist und sie direkt mit konkurrenzfähigen Produkten den Markt bedienen müssen (damit Intel bei dGPUs überhaupt erstmal wahrgenommen wird) und die Ressourcen dafür freigemacht wurden, dann fehlen noch Features und Preis. Bei Intel kann man aber nie sicher sein, deshalb würde ich das alles mal vertagen auf Tatsachen… when it’s done.

AffenJack
2021-08-03, 12:52:33
Wie gesagt: Wenn. Und wenn euch das nicht beeindruckt: Ihr sagt ja selbst, dass Intels GPUs heute Müll sind. Und es wäre nicht Wow, wenn Intel mit der ersten dGPU Genration in den meisten Aspekten zur Konkurrenz aufschliessen oder zumindest nahe kommen würde? Gleichzeitig erwartet ihr von Intel aber dennoch nur Müll? Überprüft bitte die Logik eurer Erwartungshaltung.

Ich erwarte nicht, dass Intel in allem glänzen wird oder von Anfang an reibungslos läuft. Aber so pessimistisch wie ihr sehe ich das noch lange nicht.

Du solltest nicht uns beide ansprechen, denn ich finde Intels IGPs nicht mehr Müll. Heutzutage sind die durchaus in Ordnung und man kann schon halbwegs was drauf zocken. Ich bin auch nicht pessimistisch. Ich erwarte eher mehr von Intel und glaube es werden sich noch einige umgucken, die meinen, dass Intel nicht recht schnell konkurenzfähig wird. In der ersten Gen erkauft durch den besseren Prozess, ab der 2ten Gen halbwegs konkurrenzfähig auch von der Architektur.

Lehdro
2021-08-03, 13:28:29
Und in der dritten Gen dann eingestampft, weil man vergessen hat was man eigentlich damit will, die Aktionäre kurzfristige Gewinne sehen wollen und das ganze doch kein sofortiger Erfolg ist und teure Folgekosten nach sich zieht. Das Spielchen kennt man doch von Intel.

Ich hoffe es kommt nicht so, aber Intel hat bisher in der Hinsicht nie überzeugt. Langfristiges Denken gibt es bei denen nur wenn man eigene Standards durchdrücken will.

fondness
2021-08-03, 14:22:01
Wie gesagt: Wenn. Und wenn euch das nicht beeindruckt: Ihr sagt ja selbst, dass Intels GPUs heute Müll sind. Und es wäre nicht Wow, wenn Intel mit der ersten dGPU Genration in den meisten Aspekten zur Konkurrenz aufschliessen oder zumindest nahe kommen würde? Gleichzeitig erwartet ihr von Intel aber dennoch nur Müll? Überprüft bitte die Logik eurer Erwartungshaltung.

Und wieso die Treiber heute Müll sind: Ist bei iGPUs einfach kein grosses Verkausfargument. Bei teuren dGPU wird Intel deutlich mehr liefern müssen, sonst klappt das nicht. Und das weiss Koduri. Intel hat sehr viele fähige SW-Ingenieure und nun wird mit Xe das erste Mal richtig Geld und Mannstunden reingebuttert. AMDs iGPU Treiber sind auch nicht über alle Zweifel erhaben, obwohl sie schon seit langem APUs und dGPUs bauen.

Ich erwarte nicht, dass Intel in allem glänzen wird oder von Anfang an reibungslos läuft. Aber so pessimistisch wie ihr sehe ich das noch lange nicht.


Es wäre nett, wenn du mir nicht irgendwelche Worte in den Mund legst, das ist ein schlechter Stil. Ich habe gesagt, dass die Treiber Müll sind, nicht die GPUs an sich. Und die Treiber sind ganz einfach deshalb Müll, weil viele Spiele nach wie vor Probleme machen, AMDs Treiber ist da um Welten besser wenn du diesen Vergleich schon unbedingt ziehen musst.

Klar wird Intel aufholen, sie haben sich Konduri geholt, der mindestens bis zu RDNA2 das Wissen von AMD mitnehmen kann. Der hat natürlich auch einige Ingenieure mitgenommen. Auch von Nvidia haben sie gut abgeworben. Das plus ausreichend Geld wird zweifelsfrei dafür sorgen, dass Intel aufholen wird. Sie müssen halt diesmal auch durchhalten und nicht wieder alles einstampfen wenn der kurzfristige Erfolg ausbleibt. Und das man bei Intel mittlerweile leicht skeptisch ist, nachdem sie ungefähr den hundertsten Versuch starten eine konkurrenzfähige GPU zu bauen darf man wohl verzeihen.

aufkrawall
2021-08-03, 14:25:16
In der Tat müssen die bei der Spiele-Kompatibilität noch massiv besser werden. Es wirkt, als hätten sie die Hardware nicht im Griff. Ist besorgniserregend, dass mit Gen 12 die Liste der Probleme so lange nach Release der Hardware immer noch so lang ist.

Lurtz
2021-08-03, 14:53:54
Treiber sehe ich auch als größtes Problem. Selbst wenn aktuelles AAA läuft, was bringt dir das wenn dann jedes ältere Spiel potenziell problematisch ist (ist ja mit AMD DX11 teils schon problematisch, von älteren DX-Versionen ganz zu schweigen) und jedes AA-Spiel nicht ausreichend supportet ist.

=Floi=
2021-08-03, 16:34:17
Die sollten sich auf den HPC und professionellen markt beschränken. Alles andere wird nicht gut funktionieren.
Die bräuchten auch mal ein portal, wo man fehler melden kann, um damit besser zu werden.

Unicous
2021-08-06, 18:49:36
Positive Überraschung: DG2 unterstützt Displayport 2.0.

https://videocardz.com/newz/intel-nuc-12-enthusiast-to-feature-alder-lake-and-dg2-gpus-with-displayport-2-0-support

Wake
2021-08-16, 15:16:23
Anandtech - Intel Video Cards Get a Brand Name: Arc, Coming in Q1 2022 (https://www.anandtech.com/show/16886/intel-video-cards-get-a-brand-name-arc-coming-q1-2022)
Intel PR (https://www.intel.com/content/www/us/en/newsroom/news/introducing-discrete-graphics-brand-intel-arc.html)
"Alchemist, the first generation of Intel Arc products, will feature hardware-based ray tracing and artificial intelligence-driven super sampling, and offer full support for DirectX 12 Ultimate."

Der Codename DG2 wird zu Alchemist - Folgegenerationen heißen Battlemage, Celestial und Druid :naughty:.
Mit dem DnD-Jargon gleich mal die Gamer abgeholt.

Gameplay-Video auf pre-production Intel Arc (https://twitter.com/IntelGraphics/status/1427262530594869258) (thx Twitterkompression)

Linmoum
2021-08-16, 16:01:23
Kreativ bei den Codenames. A.., B.., C.., D..

Danach folgen Elementalist, Fury und Greymane.

dildo4u
2021-08-16, 16:05:47
3RHYgNQD8-c

WedgeAntilles
2021-08-16, 16:07:23
Der Codename DG2 wird zu Alchemist - Folgegenerationen heißen Battlemage, Celestial und Druid :naughty:.
Mit dem DnD-Jargon gleich mal die Gamer abgeholt.[URL="https://twitter.com/IntelGraphics/status/1427262530594869258"]


Ist natürlich blödsinnig von mir, aber die Namen finde ich schon mal richtig geil.
Gefällt mir :)

Platos
2021-08-16, 16:09:27
Bin ja schon nicht mehr so dabei... Also ist das dann quasi ein Konter gegen Ampere und RDNA 2? Weil das wäre langsam etwas spät.

Da sind ja schon fast wieder die neuen Generationen von AMD und Amepere vor der Tür. Der einzige Grund, das noch zu kaufen, wäre, wenn die Strassenpreise bei AMD und nvidia immer noch grottig sind und Intel aber schön zum Listenpreis liefern kann (welcher natürlich auch attraktiv sein müsste).

aufkrawall
2021-08-16, 16:13:12
Könnte für einen Markteintritt schlimmer sein, wenn man trotzdem jede GPU los wird, ohne sie massiv subventionieren zu müssen.

Linmoum
2021-08-16, 16:22:25
Der Zeitpunkt könnte in der Tat schlimmer sein, aber Q1 2022 ist trotzdem irgendwie meh. Meine vage Vermutung wären wahrscheinlich Treiber, dass die in einem teils so katastrophalen Zustand sind, dass man damit auf absehbare Zeit noch nichts launchen kann.

Mit 4096 Shadern nur irgendwo 3070-Perf wäre unabhängig von der Marktlage aber nicht beeindruckend. Aber gut, dass Geld nicht viel bringt wenn das nötige Know-How fehlt, ist ja auch nichts neues.

dildo4u
2021-08-16, 16:25:51
Wenn sie nur da liegt können sie die mit 8 GB bringen und sie wären tatsächlich lieferbar. Das ist der Vorteil wenn man später kommt sie können auf den Markt reagieren.
3070 Performance liegt immer noch weit über 500€.

Linmoum
2021-08-16, 16:30:46
Niemand weiß schon jetzt, wie im Januar oder März 2022 der Markt aussieht. Bis dahin kann sich noch viel tun.

dargo
2021-08-16, 16:36:05
Mit 4096 Shadern nur irgendwo 3070-Perf wäre unabhängig von der Marktlage aber nicht beeindruckend.
Je nachdem mit was du vergleichst. Mit Ampere dann irgendwie schon denn die 3070 hat 5888 SPs. ;)

dildo4u
2021-08-16, 17:02:35
Ich vermute Intel wird bewusst bei der ersten Generation Rot schreiben, da wenn sie keine Karten verkaufen kein Entwickler drauf achten wird wie gut oder schlecht ihr Game auf dieser Architektur läuft.
AMD kann es dagegen ziehmlich egal sein ob sie Desktop Karten verkaufen, da die Entwickler dank Konsolen immer drauf achten müssen das es halbwegs auf RDNA 2 rennt.
Ich tippe mal drauf das Intel beim ersten schwung AMD und NV überbieten wird was Komponenten wie GDDR6 angeht.

aufkrawall
2021-08-16, 17:23:45
Je nachdem mit was du vergleichst. Mit Ampere dann irgendwie schon denn die 3070 hat 5888 SPs. ;)
Er meinte das sicherlich nicht als unsinnigen Äpfel-Birnen-Vergleich, sondern die Anzahl der SPs bezogen auf die zu erwartende Performance.

dargo
2021-08-16, 17:41:45
Er meinte das sicherlich nicht als unsinnigen Äpfel-Birnen-Vergleich, sondern die Anzahl der SPs bezogen auf die zu erwartende Performance.
Und was genau soll jetzt so schlecht daran sein wenn Intel mit 4096SPs die Performance von RTX 3070 erreicht? Wie gesagt... gegenüber der Luftpumpe @Ampere wäre das sogar ein richtig gutes Ergebnis. Gegen RDNA2 dann nicht ganz so gut. Aber als ersten Versuch imho durchaus überzeugend solange der Stromverbrauch in ähnlicher Region bleibt.

davidzo
2021-08-16, 17:59:24
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=76469&stc=1&d=1629129282

AHA! Also doch nur 2x Chips. Das andere sind nur Salvage SKUs dieser beiden Chips!

Links DG2-128, rechts DG2-512/384/256.

Das sieht sehr nach dem DG2-512 Chip aus den Raja auf Twitter gezeigt hat. smd caps und barcode sind an derselben Stelle. Igor hatte den Chip ja auf 396mm2 geschätzt.

Gleichzeitig passt das auch zu den geleakten PCB Fotos von MLID. Das Package war dort in etwa gleichem Format gleichgroß, hatte 8x DRAM Packages.
Igor hatte allerdings ein Gerberview von einem XE-384 PCB mit demselben package und nur 6x Speicherchips.
DG2-512 und DG2-384 sind entweder derselbe Chip oder zumindest dasselbe package, was aber imo wenig sinn macht.
Selbst SKU3 mit 256EUs hat noch das BGA2660 Package, ist also in 50% Salvage von SKU1 mit 128bit PCB. Wenn es ein kleinerer Chip wäre, dann wäre das package unterschiedlich und das PCB ohnehin, weil nur 192bit. Wozu also die gleiche packagegröße wenn es kein Reuse gibt?



Der kleinere Chip passt gut zu den DG2-128 Mobile PCB Leaks. Da war ein quadratischer Chip mit exzentischen DIE zu sehen.

aufkrawall
2021-08-16, 18:04:47
Dein "Luftpumpe"-Argument ist komplett lächerlich, weil diese SP-Config, die höhere Leistung ab 4k oder in Compute ermöglicht, offenkundig kaum Transistoren oder Fläche gekostet hat. Da du ja immer so gerne die 6600 XT vs. die 5700 XT vergleichst: Die 3060 hat einen 10% größeren Chip als die 5700 XT in ähnlicher Fertigung, ist bei Rasterizer 1440p ca. gleich schnell, hat besseres RT als die 6700 XT, TCs, bessere Compute-Performance und ist ca. 30-40% effizienter bzw. braucht die 5700 XT so viel mehr Strom, wenn man beide ähnlich UVed (kann ich btw. aus erster Hand von berichten).
Ich will jetzt nicht sagen, dass diese SP-Config niemanden interessiert, weil häufiger mehr Leistung mit sinkender Auflösung für DLSS schon nett wäre. Trotzdem kann die Balance von Ampere das Optimum dahingehend sein, wenn man keine aufgeblähteren Chips, aber mehr Rohleistung für HiRes und Compute haben wollte.
Deine "Luftpumpe" ist einfach nur ein Pseudo-Argument. Es zählen Leistung, Verbrauch und Preis, nichts weiter.

Raff
2021-08-16, 18:10:09
Ich stimme dir ja selten zu, aber hierbei gilt: full ack!

Auf Intel bin ich jedenfalls brutal gespannt. Juhu, künftig 300 statt nur 200 Prozent Workload. :ugly:

MfG
Raff

dargo
2021-08-16, 18:11:56
Wen interessiert noch die RX 5700XT wenn praktisch das gesamte Portfolio (außer vielleicht noch der eine oder andere Salvage) bei RDNA2 steht? :confused:

davidzo
2021-08-16, 18:32:01
Das Luftpumpe-Argument ist insofern schon valide, als dass der Ampere Design-Ansatz leider auch sehr Energiefressend ist. Und das ist im Zweifelsfall schon jetzt und erst recht in der Zukunft wichtiger als das "Performance pro Fläche ist ähnlich gut" und das "wieso reicht doch"-Argument.

Sieht man ja daran dass die mobilen Ampere Chips selten schneller sind als die Vorgänger bei gleicher TDP. und außerdem unter hohem Idle-Verbrauch leiden im Gegensatz zu ihren AMD counterparts. Und das war letzte Gen noch sowas von Nvs Bastion, zumal AMD immer noch nicht seine Speichertaktraten bei Dualscreen und eK oder 120hz im Griff hat.

AMD hat Navi22 grundsätzlich zu niedrig angesetzt um mit GA104 zu konkurrieren (man hätte 3 shader Engines gebraucht), trotzdem schafft es die Luftpumpe GA104 selbst mit 6144SP nicht sich von einem Chip mit nur 2560SP total zu distanzieren. Und so bedient AMD denselben Markt mit einem drastisch günstigeren Chip und PCB indem sie den Chip einfach an der Kotzgrenze betreiben.
Navi23s 2048sp vs GA106s 3840 sieht noch übler aus, weil AMD hier mit dem kleineren chip, kleinerem SI, kleinerer TDP in allen bereichen die wirtschaftlichere und einfachere Lösung hat, aber trotzdem am Ende in der Zielauflösung dieser performanceklasse vorn liegt.

aufkrawall
2021-08-16, 18:46:00
Das Luftpumpe-Argument ist insofern schon valide, als dass der Ampere Design-Ansatz leider auch sehr Energiefressend ist. Und das ist im Zweifelsfall schon jetzt und erst recht in der Zukunft wichtiger als das "Performance pro Fläche ist ähnlich gut" und das "wieso reicht doch"-Argument.

Begründung? In Zukunft kann man mit neuem Node auch wieder Transistoren in mehr fps/FLOPS investieren. Jede Architektur ist nur eine Momentaufnahme. Wenn man schon explizit über Architektur, und nicht nur konkrete SKUs, spricht, sollte man das auch normiert mit GDDR6-only machen. 6X scheint bez. Verbrauch die Seuche zu sein, ob nun im Controller oder Speicher selbst. Ja, IFC ist sehr geil und die Amperes mit 6X sind dem gegenüber im Nachteil.


und außerdem unter hohem Idle-Verbrauch leiden im Gegensatz zu ihren AMD counterparts.

Das interessiert bei Mobile kaum jemanden mit IGP. Bei Desktop Custom-Karten ist da kein wirklicher Unterschied zu sehen, ~11W vs. ~12W 6600 XT vs. 3060:
https://www.igorslab.de/msi-radeon-rx-6600-xt-gaming-x-8-gb-mischt-amd-die-untere-mittelklasse-auf/13/
https://www.igorslab.de/nvidia-geforce-rtx-3060-12-gb-im-test-mit-einer-boardpartnerkarte-was-kann-die-msi-rtx-3060-gaming-x-trio-als-ampere-einstiegsdroge/12/

Ich weiß nicht, was CB da mit angeblichen 5W für die ganze Karte bei der 6800 gemessen haben will. Kommt mir seltsam vor, da vertraue ich lieber Igor...

Platos
2021-08-16, 19:02:49
Allerdings misst CB auch noch andere realistische Lasten, wie z.B ein Youtubevideo. Bei Igor gibts leider nur den "absoluten" idle. Relevant wäre vor allem auch der Stromverbrauch bei "seichten" Lasten, wie eben sowas.

https://www.computerbase.de/2021-08/amd-radeon-rx-6600-xt-review-test/3/#abschnitt_leistungsaufnahme_spiele_youtube_desktop

davidzo
2021-08-16, 19:05:27
Wenn es um FPS/Transistor ginge, dann wären wir heute noch bei Maxwell und Pascal - die sind einfach ungeschlagen in der Metrik :up:

Gerade dass aufkrawall die 5700xt als Vergleichsmaßstab nimmt sagt doch alles darüber wie modern er die Ampere-Architektur einschätzt.

Da muss Intel Architekturell schon einiges mehr aufbieten.
Der "Smart Cache" klingt schonmal gut, auch wenn der neben RDNA2 winzig wirkt, ebenso überrascht das relativ kleine SI für solch große Chips. Da muss Intel aber massiv an der Bandbreiteneffizienz geschraubt haben.

aufkrawall
2021-08-16, 19:17:04
Gerade dass aufkrawall die 5700xt als Vergleichsmaßstab nimmt sagt doch alles darüber wie modern er die Ampere-Architektur einschätzt.

Was hier für ein Stuss erzählt wird. Ich habe explizit dazu geschrieben, dass ich 5700 XT herangezogen habe, weil dargo (im 6600 XT Review-Thread) diese mehrmals als Vergleich für die im Vergleich so tolle 6600 XT herangezogen hatte (auch wenn er hier im Thread gerade offenbar unter Gedächtnisverlust leidet).

Raff
2021-08-16, 21:24:45
Das interessiert bei Mobile kaum jemanden mit IGP. Bei Desktop Custom-Karten ist da kein wirklicher Unterschied zu sehen, ~11W vs. ~12W 6600 XT vs. 3060:
https://www.igorslab.de/msi-radeon-rx-6600-xt-gaming-x-8-gb-mischt-amd-die-untere-mittelklasse-auf/13/
https://www.igorslab.de/nvidia-geforce-rtx-3060-12-gb-im-test-mit-einer-boardpartnerkarte-was-kann-die-msi-rtx-3060-gaming-x-trio-als-ampere-einstiegsdroge/12/

Ich weiß nicht, was CB da mit angeblichen 5W für die ganze Karte bei der 6800 gemessen haben will. Kommt mir seltsam vor, da vertraue ich lieber Igor...

5 Watt bei einer 6800 halte ich auch für eine Fehlmessung (passiert mal), aber 7-8 Watt passen genauso wie 5,x Watt für eine 6600 XT. Auf dieses Niveau kommt Nvidia mit den Gaming-Modellen nicht mal ansatzweise. Irgendwo muss sich die moderne TSMC-Fertigung ja auszahlen.

MfG
Raff

basix
2021-08-16, 21:33:07
Nehmt doch einfach nicht Ampere sondern Turing als Vergleich. Eine 3070 ist in etwa so schnell wie eine 2080 Ti. Diese hat 4352 SPs. Das gegen 4096 SPs. Wenn man nicht gerade 2.5 GHz fahren muss, um eine 2080 Ti zu schlagen wäre das doch gar nicht schlecht im direkten Vergleich. Bei 2.0 GHz gäbe das in etwa Turing/RDNA1/RDNA2 IPC.

Raff
2021-08-16, 21:35:04
AMD und Nvidia haben gerade völlig unterschiedliche Philosophien, um ans Ziel zu kommen. Und beide sind schlagkräftig. Das ist sehr spannend, im Grunde so spannend wie noch nie - vor allem, wenn jetzt noch Intel dazustößt. =)

MfG
Raff

aufkrawall
2021-08-16, 21:38:41
TPU bestätigt das tatsächlich auch mit PCAT: https://www.techpowerup.com/review/asus-radeon-rx-6600-xt-strix-oc/33.html
Aber da liegt die 3060 auch nur bei 9W (deckt sich btw. genau mit dem Software-Sensor für die TUF), die 3080 Ti 16W vs. 14W 2080 Ti. Da ist davidzo wohl irgendeiner Käse-Messung auferlegen. Wobei nach der Tabelle ja auch Navi 21 ein Säufer wäre (natürlich funktionierte da irgendwas nicht richtig, evtl. Treiber-Gespacke mit dem verwendeten Display)...

basix
2021-08-16, 21:39:31
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=76469&stc=1&d=1629129282

AHA! Also doch nur 2x Chips. Das andere sind nur Salvage SKUs dieser beiden Chips!

Links DG2-128, rechts DG2-512/384/256.

Das sieht sehr nach dem DG2-512 Chip aus den Raja auf Twitter gezeigt hat. smd caps und barcode sind an derselben Stelle. Igor hatte den Chip ja auf 396mm2 geschätzt.

Gleichzeitig passt das auch zu den geleakten PCB Fotos von MLID. Das Package war dort in etwa gleichem Format gleichgroß, hatte 8x DRAM Packages.
Igor hatte allerdings ein Gerberview von einem XE-384 PCB mit demselben package und nur 6x Speicherchips.
DG2-512 und DG2-384 sind entweder derselbe Chip oder zumindest dasselbe package, was aber imo wenig sinn macht.
Selbst SKU3 mit 256EUs hat noch das BGA2660 Package, ist also in 50% Salvage von SKU1 mit 128bit PCB. Wenn es ein kleinerer Chip wäre, dann wäre das package unterschiedlich und das PCB ohnehin, weil nur 192bit. Wozu also die gleiche packagegröße wenn es kein Reuse gibt?

Vielleicht überrascht Intel uns ja. EMIB anyone? Die Abstufung 128/256/384/512 ergäbe zumindest schön 128 EU Chiplets :D Dazu passend die Speicherinterface Abstufung 256/192/128/64(?) bit. Und wieso beim 256 EU Chip das selbe Package? EMIB. Package-Reuse. Beim 128er braucht man es nicht.

Das ist natürlich höchst spekulativ ;) Intel würde AMD und Nvidia ziemlich in die MCM Parad fahren.

davidzo
2021-08-16, 22:05:28
Da ist davidzo wohl irgendeiner Käse-Messung auferlegen. Wobei nach der Tabelle ja auch Navi 21 ein Säufer wäre (natürlich funktionierte da irgendwas nicht richtig, evtl. Treiber-Gespacke mit dem verwendeten Display)...
Seit wann ist Navi21 denn ein Mobilchip? Ich sprach doch explizit von Mobilchips. Das sind Navi23, GA107, GA106 und mit einschränkungen noch GA104 und Navi22. Und ja, meine Erkenntnisse zum Verbrauch stammen aus den jüngsten 6600xt reviews.
Dass man da bei den vielen partnerkarten auch gegenteilige Aussagen findet ist klar, aber in nahezu allen reviews wo Idle power mit gemessen wurde schlägt Navi23 da GA106 um fast 100%: Computerbase, Golem, Hardwareluxx, PCGH - you name it! Unter Last gute 30% und dabei ist die 3060 schon ein niedrig taktender Salvage von GA106.
Die 3050ti mobile ist mit 45W gerade mal gleichschnell wie eine zwei Jahre alte 5500m (50w) im Macbook (siehe XPS9510 review bei notebookcheck). Das ist nicht gerade eine Glanzleistung wenn man bedenkt dass das XPS sogar noch die schnellere und effizientere Tigerlake CPU hat während das Macbook noch auf coffeelake herumgurkt.

Vielleicht überrascht Intel uns ja. EMIB anyone? Die Abstufung 128/256/384/512 ergäbe zumindest schön 128 EU Chiplets :D Dazu passend die Speicherinterface Abstufung 256/192/128/64(?) bit. Und wieso beim 256 EU Chip das selbe Package? EMIB. Package-Reuse. Beim 128er braucht man es nicht.

Das ist natürlich höchst spekulativ ;) Intel würde AMD und Nvidia ziemlich in die MCM Parad fahren.

Du hast ja eine lebendige Phantasie :freak:

Es ist doch bereits bestätigt dass es monolitische Chips in TSMC N6 sind.
Intel hat EMIB Einsatz für XE-HPG schon in der XE Präsentation von 2020 klar ausgeschlossen (Im Gegensatz zu PV und HPC). Wir haben Dokumente welche die beiden Packages nennen (BGA2660 und BGA1379) und Screenshots sowie Fotos von PCBs bei denen bei der 384er und 512er dasselbe Package verwendet wird und nur DG2-128 offensichtlich ein deutlich kleineres package besitzt.

Fuck, Intel hat uns jetzt sogar Dieshots von den zwei Chips gezeigt aus denen sich die ARC Alchemist Serie zusammensetzt. Und du glaubst weiterhin an MCM und getrennte Packages?
Der Beweis ist doch schon da!

Badesalz
2021-08-16, 22:54:09
Der Zeitpunkt könnte in der Tat schlimmer sein, aber Q1 2022 ist trotzdem irgendwie meh. Meine vage Vermutung wären wahrscheinlich Treiber, dass die in einem teils so katastrophalen Zustand sind, dass man damit auf absehbare Zeit noch nichts launchen kann.Für mich haben sie die Hardware auch noch lange nicht bugfrei fertig. Das wird noch ein langer Weg.

basix
2021-08-16, 23:52:14
Fuck, Intel hat uns jetzt sogar Dieshots von den zwei Chips gezeigt aus denen sich die ARC Alchemist Serie zusammensetzt. Und du glaubst weiterhin an MCM und getrennte Packages?
Der Beweis ist doch schon da!

Getrennte Packages nur bei 128 EU vs. alle anderen ;)

Klar, anhand der bisherigen Informationen könnte man von 2x monolithisch ausgehen. Aber: Ist Intel so verrückt und kastriert einen Chip um 50%? Intel hat schon immer auf $$$ und Marge geschaut. Und hier werfen sie es aus dem Fenster? Jetzt gibt es 3 Möglichkeiten (nach Wahrscheinlichkeit geordnet :D):
- Es gibt noch einen dritten Die, welcher halt einfach nicht gezeigt wurde
- MCM
- Intel (oder Raja) ist wirklich verrückt

Leonidas
2021-08-17, 06:20:36
AHA! Also doch nur 2x Chips. Das andere sind nur Salvage SKUs dieser beiden Chips!
Links DG2-128, rechts DG2-512/384/256.

Nicht zwingend. Intel zeigt auch immer nur das, was man zeigen muß/will.

robbitop
2021-08-17, 11:20:33
Neuronal unterstütztes Supersampling wurde auch bei der Vorstellung benannt - das wäre ein Analogprodukt zu DLSS 2.x+.
Aufregend und hoffentlich ohne Vendor Lock. :)

davidzo
2021-08-17, 11:41:47
Getrennte Packages nur bei 128 EU vs. alle anderen ;)

Klar, anhand der bisherigen Informationen könnte man von 2x monolithisch ausgehen. Aber: Ist Intel so verrückt und kastriert einen Chip um 50%? Intel hat schon immer auf $$$ und Marge geschaut. Und hier werfen sie es aus dem Fenster? Jetzt gibt es 3 Möglichkeiten (nach Wahrscheinlichkeit geordnet :D):
- Es gibt noch einen dritten Die, welcher halt einfach nicht gezeigt wurde
- MCM
- Intel (oder Raja) ist wirklich verrückt
Intel war schon immer so verrückt. Bei CPUs ist es Gang und Gebe den Chip um sogar mehr als 50% zu kastrieren.
Bei einigen Modellen gibt es nichtmal den Vollausbau, z.B. beim kommenden Sapphire Rapids der maximal 56 von 64cores freischaltet.
Das ist bei NV übrigens auch nicht soviel anders, die machen auch gerne große cuts. Die CMP90HX nutzt kaum mehr als den halben Ausbau von GA102.

Wenn man praktisch noch Null Marktanteile bei Diskreten Grafikkarten hat ist es schon ein gewagtes Stück überhaupt mehr als einen Chip anzubieten. Naja, die 128EU Version ist wohl eher für Mobile, die 512 für den Desktop, also grob 1x Chip pro segment. Für $$$ und Marge ist es wohl besser wenn man ausreichend Stückzahlen eines einzelnen Chips bei TSMC bestellt, als wenn man Produktlinien für multiple chips aufbaut ohne eine leise Ahnung von den zu erwartenden Absatzzahlen.

Es hat schon einen Grund wieso Intel das Odyssey nennt. Das ist eine Unternehmung mit hohem Risiko und die wissen selber noch nicht genau wo sie Kompetitiv landen. Gerade durch die Verzögerungen kann sich die Landschaft um sie herum ja auch mal schnell ändern.


Nicht zwingend. Intel zeigt auch immer nur das, was man zeigen muß/will.

Ich werde dich bei Zeiten erinnern :biggrin:

Es ist ja nicht nur was Intel uns zeigen will. Die Leaks zeigen das ja auch ganz unabhängig von Intel (und jetzt sag nicht dass das absichtlich gestreute Leaks von Intel sind, so gewieft ist deren marketing nun echt nicht):
- Die geleakten tabellen sprechen von BGA2660 für SKU1-3 und BGA1379 für SKU4-5.
- Die geleakten Board Gerbers zeigen denselben BGA2660 Chip mit voller 396mm2 Diegröße auf einer 192bit Karte wie auch die geleakten PCB Fotos zeigen dasselbe Package mit 256bit bestückt.
- Intel bestätigt mit den Fotos eigentlich nur das was wir schon durch die Leaks wissen.

Badesalz
2021-08-17, 12:09:45
Wenn man praktisch noch Null Marktanteile bei Diskreten Grafikkarten hat ist es schon ein gewagtes Stück überhaupt mehr als einen Chip anzubieten.Das interessiert sie nur sekundär und soll möglichst das eigentliche Produkt mitfinanzieren. Das eigentliche Produkt ist die Konkurrenz zu AMDs CDNA und Nvidias "100".

Das wird sich also alles übelst verzögern, hört aus den besser unterrichteten HPC-Kreisen :rolleyes:
In der Zeit guckt sich AMD schon die Nullserie der MI300 Chips an und H100 ist bereits auf dem Markt.

Die erste Version von Xe die man im April als "fertig" borstellen wird, wird maximal ein brauchbares Signal. Straßenfeger wird das imho nicht werden.

davidzo
2021-08-17, 12:23:37
Das interessiert sie nur sekundär und soll möglichst das eigentliche Produkt mitfinanzieren. Das eigentliche Produkt ist die Konkurrenz zu AMDs CDNA und Nvidias "100".

Das wird sich also alles übelst verzögern, hört aus den besser unterrichteten HPC-Kreisen :rolleyes:
In der Zeit guckt sich AMD schon die Nullserie der MI300 Chips an und H100 ist bereits auf dem Markt.

Die erste Version von Xe die man im April als "fertig" borstellen wird, wird maximal ein brauchbares Signal. Straßenfeger wird das imho nicht werden.

Ich weiß nicht wieso du hier schon wieder XE-HPC mit reinmischt. Das ist ein völlig anderes Produkt und XE-HPG wird es sicher nicht als serverauskopplung geben. Insofern wissen die HPC-kreise auch rein gar nichts über HPG, das sind völlig andere OEMs und Roadmaps.
Die Architektur und auch die Fertigungsstrategie haben nichts miteinander zutun, da hat man ja schon in der 2020er XE Präse gesehen wie grundverschieden das ist.

Und deine Theorie dass XE-HPC oder gar PV das eigentliche, wichtigere Produkt sind finde ich extrem abwegig. Klar, als HPC Entwickler sieht man sich vielleicht als Nabel der Welt und alles andere Computing als Unterlegen.

Aber Fakt ist dass es im moment einen einzigen Hersteller gibt der mit HPC GPUs überhaupt einen Cent verdient, nämlich Nvidia. AMD versenkt da seit einem Jahrzehnt nur Geld hinein und kann froh sein wenn man dadurch ein paar mehr CPUs verkauft. Das wird Intel ganz genau so gehen, das ist ein geplantes Verlustgeschäft um Marktanteile zu erkämpfen.
Nvidia macht trotzdem den überwiegenden Gewinn mit Gaming GPUs, trotz dass das gesamte Mellanox Networking Geschäft in derselben Datacenter Sparte ausgewiesen wird und damit den gewinn mit Datacenter GPUs verschleiert.

Den Markt für HPC-Chips würde ich also nicht überbewerten, der ist verglichen zu Gaming einfach sehr klein und da gibt es im Schnitt, wenn man nicht gerade nvidia heißt, auch die geringere Marge zu machen.

Zumal Nvidia einen Großteil der Datacenter GPUs und Gewinne gar nicht mit HPC macht, sondern mit Hyperscalern die deeplearning Produkte kaufen. Und da sind weder AMD noch Intel auf dem Weg mit Nvidia zu konkurrieren, weil beide kommende Architekturen primär auf HPC getrimmt sind und nicht auf reduced precision, sparsity etc.

Intel XE HPG, ein Nebenprodukt der Datacentersparte, das ich nicht lache. ;D

dargo
2021-08-17, 12:40:10
Neuronal unterstütztes Supersampling wurde auch bei der Vorstellung benannt - das wäre ein Analogprodukt zu DLSS 2.x+.
Aufregend und hoffentlich ohne Vendor Lock. :)
Falls nicht freue ich mich schon auf das Chaos. ;D Die DEVs drehen dann am Rad.

basix
2021-08-17, 12:41:53
HPG wird sicher auch für Prosumer und Workstation verwurstet werden. Nicht umsonst haben sie Video-Beschleunigung und AI-Features präsentiert. Intel will neben Gaming auch an die sogenannten Creators ran. In genau diesem Feld kann ich mir schon vorstellen, das Intel abliefern wird.

Und Xe/HPG bietet einen Weg, um die breiten AVX-Units in den Consumer-CPUs zurückzustutzen und somit kosten- und energieffizienter zu werden. Evtl. kommt das Heterogenous Computing dann endgültig zum fliegen.

Edit @DLSS KOnkurrent:
Intel/Raja hatte doch schon mal verlautet, dass das Open Source werden sollte? Intel muss/will dem stärksten Konkurrenten und Marktführer (Nvidia) Wind aus den Segeln nehmen, sonst wird ein Markteintritt erschwert. Mit einem Vendor Locked DLSS Konkurrenten holt man hier nicht viel. Klar, Intel Grafik ist prinzipiell sehr verbreitet. Nur sind die iGPUs mehr ein Feigenblatt und für Windows/Browsing als für Gaming gemacht.

https://www.nach-welt.com/intel-hat-interesse-an-der-amd-fidelityfx-super-resolution-technologie-bekundet/
Auf jeden Fall – die DL-Fähigkeiten der Xe HPG-Architektur verleihen Ansätzen, die eine bessere Qualität und Leistung erzielen. Wir werden auf jeden Fall versuchen, uns an offenen Ansätzen auszurichten, um die Arbeit von ISVs zu erleichtern.

dargo
2021-08-17, 12:51:38
Edit @DLSS KOnkurrent:
Intel/Raja hatte doch schon mal verlautet, dass das Open Source werden sollte? Intel muss/will dem stärksten Konkurrenten und Marktführer (Nvidia) Wind aus den Segeln nehmen, sonst wird ein Markteintritt erschwert. Mit einem Vendor Locked DLSS Konkurrenten holt man hier nicht viel. Klar, Intel Grafik ist prinzipiell sehr verbreitet. Nur sind die iGPUs mehr ein Feigenblatt und für Windows/Browsing als für Gaming gemacht.

https://www.nach-welt.com/intel-hat-interesse-an-der-amd-fidelityfx-super-resolution-technologie-bekundet/
:up:

davidzo
2021-08-17, 13:22:53
HPG wird sicher auch für Prosumer und Workstation verwurstet werden. Nicht umsonst haben sie Video-Beschleunigung und AI-Features präsentiert. Intel will neben Gaming auch an die sogenannten Creators ran. In genau diesem Feld kann ich mir schon vorstellen, das Intel abliefern wird.

Sind das Server oder der von dir genannte HPC Markt?
Nicht wirklich.
Außerdem würde ich mal stark bezweifelnd dass Intel in der ersten Generation bereits Profikunden adressiert. Das ist ein winziger Markt der noch dazu extrem konservativ ist. 90% kaufen da nur Quadros. Die Hardware ist weniger wichtig, Quadros sind zu 2/3 ein Softwarepaket aus Support, Treibern etc. Nvidia macht da sehr viel Arbeit für die CAD Softwareentwickler, das bezahlst du da halt mit.
In dem Segment kann man nur mit langjährigem Softwaresupport und langfristigen Roadmaps punkten. Ich kann mir kaum vorstellen dass Intel das mal eben aus dem Ärmel schütteln wird und noch viel weniger dass ihnen das im Unternehmensumfeld so einfach abgekauft wird.


Und Xe/HPG bietet einen Weg, um die breiten AVX-Units in den Consumer-CPUs zurückzustutzen und somit kosten- und energieffizienter zu werden. Evtl. kommt das Heterogenous Computing dann endgültig zum fliegen.


Ja, so sehe ich das auch. Intel hat ein Jahrzehnt lang mit SIMD-Einheiten in CPUs gegen den Siegeszug der GPU im Datacenter gekämpft. Damit hat man die eigene GPU-Abteilung düpiert und zurechtgestutzt. Mit Raja ist das nun anders, es scheint die GPU hat vorerst gewonnen. Aber wer weiß, wenn das ein Fail wird, ob die konservativen CPU-Hardliner nicht nochmal versuchen zurück zu schlagen.

basix
2021-08-17, 13:43:32
Was hat Prosumer und Workstation mit HPC zu tun? Es geht um professionelle Anwendungsfälle wie CAD, Bild- und Videobearbeitung, welche lokal auf dem Rechner laufen. Das was bei Nvidia die Quadros sind oder neuerdings mit "Studio-Treiber" abgedeckt wird.

davidzo
2021-08-17, 14:28:18
Was hat Prosumer und Workstation mit HPC zu tun?

Achso, habe übersehen dass du nicht Badesalz bist :rolleyes: - schaff dir mal einen Avatar an, ey:ubash:
Ich dachte es ging immer noch um Badsalz's Aussage dass XE-HPG nichts wird weil das HPC Volk nach den ganzen Verschiebungen und einem starkem Lineup seitens AMD und Nvidia nicht mehr an den Erfolg von XE-HPC und/oder PV glaubt.
Das war die urspüngliche Diskussion und ich wollte nur klarstellen dass XE-HPC nichts mit XE-HPG zutun hat und man daher nicht vom einen auf das Andere schließen sollte. Ich dachte das war ein Einwand von dir in der Richtung wie Badesalz meinte.

Das interessiert sie nur sekundär und soll möglichst das eigentliche Produkt mitfinanzieren. Das eigentliche Produkt ist die Konkurrenz zu AMDs CDNA und Nvidias "100".

Das wird sich also alles übelst verzögern, hört aus den besser unterrichteten HPC-Kreisen :rolleyes:
In der Zeit guckt sich AMD schon die Nullserie der MI300 Chips an und H100 ist bereits auf dem Markt.

Die erste Version von Xe die man im April als "fertig" borstellen wird, wird maximal ein brauchbares Signal. Straßenfeger wird das imho nicht werden.

Badesalz
2021-08-17, 19:09:52
Aber Fakt ist dass es im moment einen einzigen Hersteller gibt der mit HPC GPUs überhaupt einen Cent verdient, nämlich Nvidia. AMD versenkt da seit einem Jahrzehnt nur Geld hinein und kann froh sein wenn man dadurch ein paar mehr CPUs verkauft. Das wird Intel ganz genau so gehen, das ist ein geplantes Verlustgeschäft um Marktanteile zu erkämpfen.Ok. Was genau hat man dann davon? Braucht man das für eine Statistik oder was ist damit?

Ja ich hab das wohl verpeilt, daß Xe HPG und HPC sowas wie RDNA und CDNA sind. Hab immer nur gelesen, daß der eine ein "ABLEGER" des anderen ist (mal so, mal so). Das hat mich verwirrt =)

Ja, so sehe ich das auch. Intel hat ein Jahrzehnt lang mit SIMD-Einheiten in CPUs gegen den Siegeszug der GPU im Datacenter gekämpft.Das ist allerdings so lala... Lässt sich bei AVX-512 zwar nicht verneinen, aber was soll eine GPU im Datacenter? Wenn wir vom Calculatecenter ;) reden, wird das Bild klarer, aber das ist wie du schon oben vermerkt hast ein so kleiner Markt...
Ich bin glaub ich endgültig verwirrt :)

Hikaru
2021-08-18, 06:59:31
AMD und Nvidia haben gerade völlig unterschiedliche Philosophien, um ans Ziel zu kommen. Und beide sind schlagkräftig. Das ist sehr spannend, im Grunde so spannend wie noch nie - vor allem, wenn jetzt noch Intel dazustößt. =)

MfG
Raff

Ich weiss nicht, ist irgendwie so wie immer. NV kommt mit rawpower daher, nicht ganz effizient verteilt. AMD mogelt sich ganz effizient durch die Geschichte, sprich NV hinterher, und Intel hatte mal den i740 der ein Witz war, in höherer Ausbaustufe aber den Markt hätte zersägen können. Die hatten glaub 1996 Zugang zu Technologie die (Licht)Jahre voraus war und was kam raus der i740, ojeh. 3070ti also... :anonym:

Loeschzwerg
2021-08-18, 07:14:35
Auburn / i740 war eigentlich immer noch recht solide, aber halt nicht in der Leistungsklasse die ursprünglich beworben wurde. Dreh und Angelpunkt war der Zwang von Seiten Management auf AGP zu setzen. Damit gab es dann Verzögerungen und geringe Marktakzeptanz (OEMs wollten PCI!).

Raff
2021-08-18, 09:26:16
Ich weiss nicht, ist irgendwie so wie immer. NV kommt mit rawpower daher, nicht ganz effizient verteilt. AMD mogelt sich ganz effizient durch die Geschichte, sprich NV hinterher, [...]

So wie immer? NV mit Rohleistung, AMD effizient? Du hast einige GPU-Generationen verdrängt, schätze ich. :D Fiji & Co. waren vieles, aber nicht effizient.

MfG
Raff

Leonidas
2021-08-18, 09:33:05
Das interessiert sie nur sekundär und soll möglichst das eigentliche Produkt mitfinanzieren. Das eigentliche Produkt ist die Konkurrenz zu AMDs CDNA und Nvidias "100".

Mit dieser Auslegung wäre ich vorsichtig. HPC etc. sind extra Chips für Intel. Wenn man Gaming nicht wollte, bräuchte man Xe-HPG überhaupt nicht auflegen - das würde nix an den Server-Varianten ändern.




HPG wird sicher auch für Prosumer und Workstation verwurstet werden. Nicht umsonst haben sie Video-Beschleunigung und AI-Features präsentiert. Intel will neben Gaming auch an die sogenannten Creators ran.

Ok, das wird natürlich passieren. Aber damit finanziert man Xe-HPG nicht, Prosumer sind hier eher der Zusatznutzen.

y33H@
2021-08-18, 10:44:40
So wie immer? NV mit Rohleistung, AMD effizient? Du hast einige GPU-Generationen verdrängt, schätze ich.Vor allem war es viele Jahr lang AMD, deren Karten enorm viele Teraflops hatten - diese aber nicht zur Geltung kamen.

Badesalz
2021-08-18, 10:49:49
Um sich bei Prosumer/Workstation wenigstens als der Dritte zu etablieren... Auch mal ungeachtet AMD...
Ich weiß nicht was man da bieten müsste, damit die OEMs keine Nvidia nehmen und SolidWorks&co. sich extra noch mit Xe beschäftigt. Selbst bei gleicher Leistung müsste man entweder über den Preis oder über Verbrauch gehen.

Meint ihr wirklich das wird so ein Feger das Ding? Es fällt mir wirklich schwer das zu glauben. wo schon i740 genannt wurde: Das Teil war beim Erscheinen mehr oder weniger standesgemäß (ohne Podiumsplätze) und ich mein3 12 Monate später schon quasi wieder tot?

Und noch und nöcher aufgehübscht als 75x, im i810 Chipsatz zu finden und zog da schon keinen dicken Herring mehr vom Teller.

basix
2021-08-18, 12:22:08
Intel benötigt breite Vektor-Rechner für HPC, Data Center und ML/AI. Larrabee war initial ganz gut vertreten bei HPC, verschwand aber mittlerweile in der Versenkung. AVX512 ist zu energieineffizent und bläht die CPU-Cores auf. Dicke Cores haben bei vielen Tasks Nachteile, weil es einfach nicht benötigt wird. Siehe dazu auch die ARM Chips von Ampere und Co., welche rechts überholen wollen. Und da immer mehr in Richtung Beschleuniger als CPUs investiert wird, bricht Intel eines der Geschäftsfelder schleichend weg.

Einziger Ausweg sind breite Vektor- und Matrizenrechner, wie es GPUs nun mal sind. Für diesen Task sind sie prädestiniert weil deutlich energieffizeinter. Intel will/muss das Ding zum fliegen bringen, sonst hat man nicht nur bezüglich HPC-Beschleuniger ein Problem, sondern längerfristig auch aufgrund der zu fetten CPU-Cores. Eine starke Xe Architektur entlastet somit auch das CPU-Kerngeschäft.

Mit GPUs kommt man auch näher an Consumer und somit einen grösseren TAM. Nvidia macht es vor: Man verdient im Gaming immer noch deutlich mehr als im HPC Geschäft. Und Nvidias Margen sind ebenfalls nicht von schlechten Eltern.

Ich denke, Intel will definitiv längerfristig an ihren GPUs dranbleiben. Rajas "Beförderung" und Erweiterung seiner Kompetenzen deutet ebenfalls dort hin. Und wenn sie auch "nur" die 3070 mit der 512 EU Version schaffen: So schlecht ist das nicht. Eine 3070 ist immerhin eine High End GPU. Mit Anfang 2022 etwas spät aber definitiv brauchbar. Vor allem, wenn mit genug Speicher, guter RT Performance und einem DLSS 2.0 Konkurrenten ausgestattet. Vor allem letzteres kann die Grenze der effektiven Leistungsfähigkeit stark verschmieren. Erstens bei der Qualität auf dem Bildschirm und zweitens bei der Performance. Sieht man auch an den Nvidia GPUs: Kleinere GPUs profitieren typischerweise stärker, da von geringeren FPS ausgehend mehr Speedup drinliegt.

WedgeAntilles
2021-08-18, 15:25:49
Ich denke, Intel will definitiv längerfristig an ihren GPUs dranbleiben. Rajas "Beförderung" und Erweiterung seiner Kompetenzen deutet ebenfalls dort hin. Und wenn sie auch "nur" die 3070 mit der 512 EU Version schaffen: So schlecht ist das nicht. Eine 3070 ist immerhin eine High End GPU. Mit Anfang 2022 etwas spät aber definitiv brauchbar. Vor allem, wenn mit genug Speicher, guter RT Performance und einem DLSS 2.0 Konkurrenten ausgestattet. Vor allem letzteres kann die Grenze der effektiven Leistungsfähigkeit stark verschmieren. Erstens bei der Qualität auf dem Bildschirm und zweitens bei der Performance. Sieht man auch an den Nvidia GPUs: Kleinere GPUs profitieren typischerweise stärker, da von geringeren FPS ausgehend mehr Speedup drinliegt.

Das einzige, was an der 3070 ja schlecht ist, ist die Speicherausstattung.
Ansonsten eine perfekte Karte.
Auch 2022 wäre das also noch eine gute Performance.

Benutzername
2021-08-18, 15:38:41
Auburn / i740 war eigentlich immer noch recht solide, aber halt nicht in der Leistungsklasse die ursprünglich beworben wurde. Dreh und Angelpunkt war der Zwang von Seiten Management auf AGP zu setzen. Damit gab es dann Verzögerungen und geringe Marktakzeptanz (OEMs wollten PCI!).


i740 ist jetzt aber auch schon fast ein Vierteljahrhundert her. intel damals und der Markt damals waren völlig anders als heute. Ich bezweifele, daß irgendjemadn der heute an Xe arbeitenden Leute damals schon bei i740 dabei war. Bisher aber macht intels erneuter Anleuf einen ernsthafteren Eindruck als damals.

davidzo
2021-08-18, 16:03:19
Meint ihr wirklich das wird so ein Feger das Ding?

Was hast du nur immer mit den Straßenfegern?
Hier hat noch niemand etwas in der Richtung gesagt, das findet nur in deinem Kopf statt. Intel zielt auf die RTX3070 und RX6800 - soweit das Gerücht!
Wie man das interpretiert und ob Intel das Ziel auch erreicht muss jeder selbst schätzen.

Für die Abschätzung der Erfolgsaussichten sind imo noch zu viele Fragen offen.
- XE Gen12 ist sehr Bandbreitenhungrig, selbst die niedrigtaktenden 96EU in Tigerlake oder DG1. Wie Intel das für 512EU lösen will mit nur 16mb cache ist unklar. Vielleicht sind es eben mehr als 16mb.
- Von der IPC pro Shaderalu sind Vega und XE-LP in etwa vergleichbar. Da muss also noch viel passieren, denn sonst performt XE nur wie eine Vega64 bzw. R7 mit mehr Takt.
- Mit den angestrebten 2,2Ghz könnte das schon was werden, vorausgesetzt das Scaling ist optimal und das Bandbreitenproblem kann gelöst werden. Aber wie bzw. ob Intel das löst und nebenbei noch eine gute RT Implementierung abliefert ist noch völlig offen.

basix
2021-08-18, 17:42:34
Wie gesagt, wenn Intel auf Niveau 3070 (Raster + RT + DLSS) bei vergleichbarem Energieverbrauch landet sollte das von allen als grosser Erfolg von Intel gewertet werden. Ich kann nicht verstehen, wie das von einigen als Fail angesehen wird und nur bei Performance-Krone zufrieden wären. Intel kann auch nicht zaubern. Und wie davidzo schon dargelegt hat, sind schon für die Erreichung der 3070 einige Engineering-Probleme zu lösen. Und davon gleich mehrere gewichtige.

Badesalz
2021-08-18, 18:41:39
Wie gesagt, wenn Intel auf Niveau 3070 (Raster + RT + DLSS) bei vergleichbarem Energieverbrauch landet sollte das von allen als grosser Erfolg von Intel gewertet werden.Das meinte ich eigentlich, aber der Typ ist im Umgang eh bisschen seltsam also nicht so wichtig ;)

Freestaler
2021-08-18, 19:19:13
3070 Niveau wäre ein 1a start! Vorallem wenn die Treiber das in der Mehrzahl der "aktuellen oder sehr beliebten" Games hinkriegt. Ich pers denke aber nicht das dies klappt.

Badesalz
2021-08-18, 19:29:35
Ich weiß nicht was Intel da noch alles machen will, aber so einen späten Einstieg stell ich mir bisher schwierig vor. Bei HPC noch mehr als bei HPG. Wenn man nicht grad beschenkt wird, will keiner so wirklich Intel aktuell. IST ja nicht so, daß nur in Argonne die Stimmung ziemlich mies ist... Selbst der Intelshop beim LRZ knickt nun ein und will was mit Fujitsus A64FX basteln.

Aktuell scheint sich bei den großen Maschinen auch alles um Durchsatz zu drehen. Um FLOPS als wenn nur nebenbei. Was gibts da eigentlich im Intel-Biotop für Lösungen? AMD legte alles für Slingshot (Cray) aus und ist bestens raus. Slingshot ist auch mittlerweile eine kleine Welt vor Mellanox 200G. Was nimmt Intel dann?

Ok, wenn man nicht gleich mehrere hunderte Petaflops haben will ist man gut raus und ist nicht nur auf HPE/Cray angewiesen, aber für die schon diesjährigen 1-tier Kisten liefert aktuell nur AMD sauber funktionierende Hardware. An HPE/Cray.

Hikaru
2021-08-19, 07:06:06
So wie immer? NV mit Rohleistung, AMD effizient? Du hast einige GPU-Generationen verdrängt, schätze ich. :D Fiji & Co. waren vieles, aber nicht effizient.

MfG
Raff

Ojeh, das kann sein mit Verdrängen. Bisschen unzureichend ausgedrückt. Mit effizient meinte ich eher das mit Trickserei ein ähnliches Ergebnis erzielt wird während NV einfach mit "gib' ihm!" auf den Tisch haut. Ein gutes Beispiel wäre aus 24Bit Farbtiefe rechnen wir am Ende 32Bit draus aber wir haben besseres AA (rotated grid glaube ich) anno Radeon9800/X800, also garnicht solange her:anonym: Heute haben wir den DLSS und RT Verschnitt. Hier klotzt NV mit dedizierten RT Einheiten heran während AMD noch "mogelt". Und im DLSS hat NV auch schon lange vorgegeben. Das meinte ich mit effizient, aus "weniger" mehr machen wie z.B. FSR, klasse Sache nachträglich implementiert und meine 1070 kann sogar davon profitieren.

robbitop
2021-08-19, 08:09:01
Die DX9 Spezifikation verlangte 24 bit FP. Warum NV 32bit FP lieferte (und zusätzlich noch INT12) ist etwas unklar. Ggf. ging man beim Design von NV30 davon aus, dass FP32 die Anforderung sein wird (wie es dann mit späteren Iterationen von DX kam). Ein vernünftiges Abtastmuster anzubieten war auch keine Hexerei. Siehe schon den uralten VSA100. Die Voodoo 5 6000 konnte Jahre vorher schon 8x SGSSAA. Der Rasterizer muss ein entsprechend feines subpixel grid unterstützen. Hat man bis NV40 aber nicht gemacht. Davon ist jedoch nichts "Trickserei".

Trickserei waren die unsäglichen "Optimierungen" beim Anisotropen Filter. Winkelabhängiges AF (spart Füllrate und auch Transistoren für die LoA Berechnung). Da hat ATI erst ab R520 vernünftiges AF geliefert. NV bot bei NV3x noch vernünftiges AF an, kürzte das im NV4x und G7x und führte es zum G80 wieder ein.
Dazu kamen dann je nach IHV eben "Optimierungen" beim Filterkernel (samples wegsparen). Und Applikationsabhängige "Optimierungen"

Aber das ist alles schon >15 Jahre her. Genug OT.

Shink
2021-08-19, 09:26:11
In "Zeiten wie diesen", wo Nvidia und AMD nicht mit der Produktion von Chips nachkommen und nie dagewesene Gewinne machen, die Auslieferung von Autos sich verzögert weil sie auf die Chips für Infotainment warten etc könnte man meinen, es ist nicht die schlechteste Idee, auf den Markt zu gehen mit einer neuen discrete GPU. Ob die Zeit des Markteintritts nicht zu spät ist, wird sich zeigen aber ich denke schon, dass man im Moment bei einem guten Preis schon was an den Mann bekommen kann. 3070-Leistung ist ja so daneben nicht.

ryan
2021-08-19, 13:37:28
https://videocardz.com/newz/intel-unveils-arc-graphics-roadmap-xe-cores-and-xess-super-resolution-technology


Xe HPG hat 64 EUs pro slice (Xe LP bekanntlich 96 EUs). Die IPC sollte dadurch steigen, das frontend und backend haben nur 64 EUs zu füttern.

Fusion_Power
2021-08-19, 14:10:15
3070 Niveau wäre ein 1a start! Vorallem wenn die Treiber das in der Mehrzahl der "aktuellen oder sehr beliebten" Games hinkriegt. Ich pers denke aber nicht das dies klappt.
Ich wäre schon mit der 128EU Version zufrieden, sofern diese wirklich um die 70w TDP angesiedelt ist und auch wirklich die vergleichbare Leistung einer GTX 1660 erreicht, gute Treiber voraus gesetzt.
Die iGPU Versionen in den mobilen Tiger Lake CPUs haben ja schon gezeigt dass Intels XE Grafik was leisten kann, auch mit nur 98EU Units und geringem TDP. Kann man also hoffen dass die dedizierten Varianten da noch mehr herausholen können.

aufkrawall
2021-08-19, 14:12:41
Hatten wir das schon so konkret?
Intel XeSS is temporal-based upscaling technology that will account for motion vectors (velocity) and the history of previous frames. This data will be processed by XeSS XMX instructions before they reach postprocessing.
Klingt ja fast zu gut, um wahr zu sein. Aber vielleicht bin ich auch nur durch den FSR-Launch geschädigt.

basix
2021-08-19, 14:31:16
Anhand der bisherigen Aussagen zu XeSS (z.B. von Raja) hatte ich etwas wie DLSS 2.0 erwartet, doch.

aufkrawall
2021-08-19, 14:33:46
Anhand der bisherigen Aussagen zu XeSS (z.B. von Raja) hatte ich etwas wie DLSS 2.0 erwartet, doch.
Ja, das war von ihm voraussichtlich in Aussicht gestellt. Das ist ja nun eine eindeutige Bestätigung, wenn die Quelle stimmt.

basix
2021-08-19, 14:51:58
Interessant ist noch die Angabe von DP4A sowie XMX: DP4A sind INT8 Instruktionen. RDNA2 hat hier 4x Beschleunigung (6900XT = ~90 TOPS). Nvidia hat die Tensor Cores (3090 = ~300 TOPS) Wenn ich XMX interptretieren soll: Intels "Sparsity Feature"? Oder könen die normalen EUs von Xe dann ebenfalls DP4A?

dildo4u
2021-08-19, 15:21:26
Intel XeSS Demo in UE 4 1080p > 4k.

https://youtu.be/3jU_YhZ1NQA?t=3571

Raff
2021-08-19, 15:22:29
Intel Architecture Day 2021: Technik-Details zu Xe, Arc und dem Multi-Chip-Monster Ponte Vecchio (https://www.pcgameshardware.de/Intel-GPU-Codename-267650/News/Intel-Arc-Gaming-Grafikkarten-1378034/)

MfG
Raff

Troyan
2021-08-19, 15:25:26
Anhand der bisherigen Aussagen zu XeSS (z.B. von Raja) hatte ich etwas wie DLSS 2.0 erwartet, doch.

Es ist exakt das selbe wie DLSS. :cool:
Fehlt nur noch Support für DirectML. Mal sehen, ob das 2022 fertig wird.

davidzo
2021-08-19, 15:31:09
Ich wäre schon mit der 128EU Version zufrieden, sofern diese wirklich um die 70w TDP angesiedelt ist und auch wirklich die vergleichbare Leistung einer GTX 1660 erreicht, gute Treiber voraus gesetzt.
Die iGPU Versionen in den mobilen Tiger Lake CPUs haben ja schon gezeigt dass Intels XE Grafik was leisten kann, auch mit nur 98EU Units und geringem TDP. Kann man also hoffen dass die dedizierten Varianten da noch mehr herausholen können.

Diese Erwartungen würde ich ein bisschen dämpfen, 1660 Territorium ist so ziemlich außer Reichweite.

DG1 hat ja immerhin schon 80EUs bei 1,6Ghz und 68gb/s Bandbreite und kann nur mit Mühe mit einer GT1030 oder integrierten mobile Vega8 (4800U) mithalten. Zwischen diesen Karten und der GTX1660 liegt ca. Faktor 3-3,5x, zur super/ti sogar 4x.

Mit 128EUs bei 2,2Ghz wird DG2-128 zwar die Rohleistung verdoppeln und die Bandbreite wird um ca. 80% auf 128gb/s gesteigert, aber wenn dabei etwas mehr als die zweifache Leistung heraus kommt wäre das schon sehr gut. Also mit Glück kommt man auf GTX1650 Territorium, wahrscheinlich eher zwischen 1050 und 1650.

Und da gehört die Karte auch hin, schließlich wird sie in den geleakten SKUlisten nur mit 64bit SI und maximal 4GB gelistet.

Für einen ernsthaften 1660 bzw. 3050ti Konter sollte man in 2022 mindestens 6GB, aber besser 8gb bieten.

davidzo
2021-08-19, 15:37:04
Intel Architecture Day 2021: Technik-Details zu Xe, Arc und dem Multi-Chip-Monster Ponte Vecchio (https://www.pcgameshardware.de/Intel-GPU-Codename-267650/News/Intel-Arc-Gaming-Grafikkarten-1378034/)

MfG
Raff

:cool:
Das Schaubild zeigt ja einen gigantischen memory Fabric Balken mit der Aufschrift "L2". Also doch ein größerer Infinity Cache und nicht nur 16Mb L2 für 8 slices?

XE-Cores sind wohl das was in DG1 mal ein Subslice war. 4x XE Cores = 1x Slice (bei DG1 waren es 6x subslices)

ich finde die neue Aufteilung gut, weil man da einen besseren vergleich zu AMDs CUs und Nvidias SMs bekommt.


Auch sehr interessant ist die Folie wo sie 50% Frequency increase kriegen zwischen Intel 10SF DG1 und TSMC N6 DG2, aber gleichzeitig auch 50% mehr performance per Watt. Das heißt der Verbrauch pro EU bleibt praktisch gleich zwischen DG1 und DG2.
Das bestätigt auch dass die Samples mit 2,2-2,4Ghz wohl die finalen Taktraten waren, denn das passt gut zu 50% mehr als DG1 bei 1,4-1,6Ghz.

basix
2021-08-19, 16:09:14
Beim YT-Video gibt es noch viele zusätzliche Infos: https://www.youtube.com/watch?v=3jU_YhZ1NQA

Ist aber >2h

fondness
2021-08-19, 16:23:11
Wenigstens ist Intel nicht so assi wie Nvidia und beschränkt das AA nicht auf eigene GPUs.

davidzo
2021-08-19, 17:39:30
Wenigstens ist Intel nicht so assi wie Nvidia und beschränkt das AA nicht auf eigene GPUs.

Open source bedeutet nicht dass andere Architekturen supportet sind.

XMX extensions sind ein proprietärer Befehlssatz den andere µarchs nicht haben. In den Intel performance metrics die Videocardz veröffentlicht ist der Performance-hit mit XMX halbiert gegenüber DP4a.
Und auch DP4a heißt noch nicht dass es gut läuft, denn RDNA2 ist nicht für einen hohen low precision Durchsatz ausgelegt wie XE und Ampere gaming auch nicht wirklich.

Btw, ich bin positiv überrascht von den neuen features der Architektur, nicht nur für Gaming!
Intels Fokus auf Low precision bedeutet dass sie mit XE-HPC und PV eine gute Chance haben nvidia im AI Markt anzugreifen. Bisher dachte man das wär eine reine HPC Lösung und A100 wird weiterhin außer Konkurrenz mit tf32, bfloat16, int4 und sparsity im AI-Markt.

Fusion_Power
2021-08-19, 17:56:17
Diese Erwartungen würde ich ein bisschen dämpfen, 1660 Territorium ist so ziemlich außer Reichweite.

DG1 hat ja immerhin schon 80EUs bei 1,6Ghz und 68gb/s Bandbreite und kann nur mit Mühe mit einer GT1030 oder integrierten mobile Vega8 (4800U) mithalten. Zwischen diesen Karten und der GTX1660 liegt ca. Faktor 3-3,5x, zur super/ti sogar 4x.

Mit 128EUs bei 2,2Ghz wird DG2-128 zwar die Rohleistung verdoppeln und die Bandbreite wird um ca. 80% auf 128gb/s gesteigert, aber wenn dabei etwas mehr als die zweifache Leistung heraus kommt wäre das schon sehr gut. Also mit Glück kommt man auf GTX1650 Territorium, wahrscheinlich eher zwischen 1050 und 1650.

Und da gehört die Karte auch hin, schließlich wird sie in den geleakten SKUlisten nur mit 64bit SI und maximal 4GB gelistet.

Für einen ernsthaften 1660 bzw. 3050ti Konter sollte man in 2022 mindestens 6GB, aber besser 8gb bieten.
Mit den mobilen iGPUs wird man die discrete GPUs wohl wenig vergleichen können, die integrierten verbraten ja auch weniger Watt und sind wohl auch niedriger getaktet. Aber ja, vermutlich wirds im Fall der 128EU Version nicht für eine GTX 1660 reichen, ich vergaß den doch etwas größeren Unterschied zwischen ner GTX 1660 und ner GTX 1650, bzw. TGX 1050 (Ti). Die GTX 1660 waren auch keine 75W Grafikkarten mehr oder?
Dann wohl also ehr Richtung GTX 1650, zumindest sollte diese um 75W angesiedelte Intel GPU meine gute, alte GTX 1050Ti schlagen (zugegeben ein aufgebohrtes OC Modell), bei den Features, bei der Performance und natürlich auch preislich. Sonst lohnt sich da ja eh nix um neu zu kaufen.

-/\-CruNcher-/\-
2021-08-19, 18:19:44
Der Zeitpunkt könnte in der Tat schlimmer sein, aber Q1 2022 ist trotzdem irgendwie meh. Meine vage Vermutung wären wahrscheinlich Treiber, dass die in einem teils so katastrophalen Zustand sind, dass man damit auf absehbare Zeit noch nichts launchen kann.

Mit 4096 Shadern nur irgendwo 3070-Perf wäre unabhängig von der Marktlage aber nicht beeindruckend. Aber gut, dass Geld nicht viel bringt wenn das nötige Know-How fehlt, ist ja auch nichts neues.

Performance ist nicht alles stabilität kann eben auch einen nicht unbeachtlichen Anteil ausmachen und da kann man sehr gespannt sein :)

Wie stabil Intel Teams Nvidia und AMD optimierten Code handeln und wie schnell sie gegen vor allem Nvidias Team sind beim optimieren :)

Nvidia hat immer mehr einen immensen Nachteil, keine komplett eigene Platform ausserhalb von ARM.

AMD und Intel werden diesen noch Vorteil voll ausschöpfen.

Es wird super spannend wie effizient Intel vor allem Nvidia spezifische optimierungen handeln wird und wie schnell und effizient sie diese als eventuele stabilitätsprobleme kontern innerhalb ihrer HSA :)

aufkrawall
2021-08-19, 18:42:20
Es muss mindestens ein massiver Fail in der Software-Entwicklung vorliegen, wenn Stabilität ein Problem ist. RADV läuft stabiler als der Vulkan-Treiber von AMD selbst, da kann man für solche Probleme wirklich kein Verständnis mehr haben.

-/\-CruNcher-/\-
2021-08-19, 18:57:26
Naja wir sehen ja Nvidia schon an vielen Problemen Nagen und deutlich mehr Zeit die investiert werden muss gegen AMD spezifische Optimierungen.

DrFreaK666
2021-08-19, 19:07:06
Wegen XE SS: Wieso kocht jeder sein eigenes Süppchen, statt mit MS für eine größere Verbreitung zu sorgen?

Badesalz
2021-08-19, 20:26:31
Nvidia hat immer mehr einen immensen Nachteil, keine komplett eigene Platform ausserhalb von ARM.Warum? AMD hat auch keine komplett eigene PlatTform ausserhalb von x86 :confused:

AMD und Intel werden diesen noch Vorteil voll ausschöpfen.Der erste der hierbei etws voll ausschöpfen konnte ist AMD. Kürzlich. Mit Trento und MI200.

|MatMan|
2021-08-19, 23:23:24
Open source bedeutet nicht dass andere Architekturen supportet sind.

Wenn es wirklich komplett open Source ist, also auch das Netz veröffentlicht ist, dann wird sich ja wohl jemand finden, der den Code für AMD und nVidia anpasst. Davon kann man IMO ausgehen, wenn nicht irgendwas fehlt oder Lizenzen dagegen sprechen.

Gebrechlichkeit
2021-08-20, 02:00:11
Wie aus dem nix, Bonk (https://youtu.be/myU81w93Uu4?t=6)! Nach der 7970 kam von AMD nix "kompetitives" mehr raus. Intel bringt eine DLSS Alternative fuer deren GPUs und AMD ein ...

AMD has left the chat.

Blediator16
2021-08-20, 02:26:06
Wie aus dem nix, Bonk (https://youtu.be/myU81w93Uu4?t=6)! Nach der 7970 kam von AMD nix "kompetitives" mehr raus. Intel bringt eine DLSS Alternative fuer deren GPUs und AMD ein ...

AMD has left the chat.

Intel muss erstmal "entern" bevor da irgendjemand den chat verlässt ;D

-/\-CruNcher-/\-
2021-08-20, 05:02:36
Intel wollte schon mit Larrabee alles auf den Kopf stellen, allerdings war das einfach etwas zu krass als Umstellung.
Raja bringt das ganze jetzt erstmal Interop Konform zum Abschluss.
Man weiss jetzt schon das weder AMD noch Nvidia irgend eine Chance vs Intels Video Core haben werden, jetzt wo Quicksync zusätzlich mit einer potenten GPU kombiniert wird innerhalb der Platform.

robbitop
2021-08-20, 07:15:37
Wenigstens ist Intel nicht so assi wie Nvidia und beschränkt das AA nicht auf eigene GPUs.
Ich finde das auch super und muss schmunzeln, dass Intel (die 23 Jahren aus dem dGPU Markt heraus sind) sowas eher bringt als AMD, die praktisch schon immer dabei waren.

Jedenfalls frage ich mich bei sowas ob das eine Einstellungsfrage / Firmenkultur ist oder ob das nicht auch (zumindest partiell!) von der Marktsituation abhängt.
Nvidia dominiert den Marktanteil bei dGPUs. Intel fängt bei 0 an.
Das sind verschiedene Ausgangssituationen wann es um Strategie zu Open Source vs propriatary IP geht.

Nichtsdestotrotz kann man da nur applaudieren. Selbst wenn AMD nichts eigenes bringt, ist man damit aus dem unsäglichen Vendorlock befreit als Endkunde.

Open source bedeutet nicht dass andere Architekturen supportet sind.
Sie haben doch explizit im Video gesagt, dass mittels DP4a sogar die Architekturen des Wettbewerbs es nutzen können und dass diese Version etwas später dieses Jahr kommt. (und gezeigt, dass der Impact an Rendertime etwas höher ist - was ja auch Sinn macht).

Oder meinst du support im Sinne von explizitem Support (Optimierung und Bugfixing)? Ich würde vermuten, dass sie das nicht tun. Aber da es open source ist, muss Intel das dann nicht tun.


XMX extensions sind ein proprietärer Befehlssatz den andere µarchs nicht haben. In den Intel performance metrics die Videocardz veröffentlicht ist der Performance-hit mit XMX halbiert gegenüber DP4a.
Und auch DP4a heißt noch nicht dass es gut läuft, denn RDNA2 ist nicht für einen hohen low precision Durchsatz ausgelegt wie XE und Ampere gaming auch nicht wirklich.
RDNA 2 hat 4x Speedup INT8. Genau wie Pascal und Maxwell. Das ist doch nicht schlecht.


Btw, ich bin positiv überrascht von den neuen features der Architektur, nicht nur für Gaming!
Intels Fokus auf Low precision bedeutet dass sie mit XE-HPC und PV eine gute Chance haben nvidia im AI Markt anzugreifen. Bisher dachte man das wär eine reine HPC Lösung und A100 wird weiterhin außer Konkurrenz mit tf32, bfloat16, int4 und sparsity im AI-Markt.
Volle Zustimmung. Genauso ging es mir nach dem ich die Präsentation angeschaut habe. Ich bin sehr sehr positiv überrascht.
Die RT Beschleunigung liegt ja auch eher auf dem Level, das NV anbietet. Matrixunits für AI Beschleunigung und mal schauen wie groß der gemeinsame L2 Cache ist.

Wegen XE SS: Wieso kocht jeder sein eigenes Süppchen, statt mit MS für eine größere Verbreitung zu sorgen?
Weil das nicht Sache der API ist.
Bis dato hat jedes Studio sein eigenes TAA entwickelt - mit stark unterschiedlichen Ergebnissen. DLSS/XESS sind der logische nächste Schritt.
Eigentlich müssten die Studios sowas entwickeln, wenn es im gleichen Muster weiter gehen sollte. Aber das erforderliche Know How für das NN haben die meisten Studios wohl nicht (weil sie in der Hauptsache mit Spielen Geld verdienen und nur indirekt mit Research).
Entsprechend sind da dann eigentlich nur die Vendors, die die Motivation und die Möglichkeiten haben, das anzubieten.

Ich hoffe, dass DLSS und XESS ähnlich genug sind, damit die Studios von ihren Erfahrungen mit DLSS profitieren. Viele DLSS Implementierungen sind bis dato noch lau warm (LoD; Schärfe im PP; Alle Objektte mit Motion Vectors etc). NV investiert eine Menge Zeit in die Verbesserung des SDKs und im Dev Support und dennoch ist es nicht ideal. Es ist davon auszugehen, dass die Ergebnisse langsam immer besser werden.

Wäre schade, wenn man bei XESS nochmal neu anfangen müsste mit den Erfahrungen. Aus High Level Sicht ist es praktisch gleich. Aber wie immer steckt der Teufel im Detail.

Badesalz
2021-08-20, 07:39:29
Jedenfalls frage ich mich bei sowas ob das eine Einstellungsfrage / Firmenkultur ist oder ob das nicht auch (zumindest partiell!) von der Marktsituation abhängt.Du weißt, daß dies eine Nerd-Forenblase ist? Über die Kids in der recht ordentlich großen Sippe krieg ich schon einiges mit, und da beschäftigt sich NIEMAND mit DLSS.

Wenn man hier im Forum halben Tag unterwegs ist, glaubt man, es gibt nichts wichtigeres in der Zockerwelt :freak:

ChaosTM
2021-08-20, 07:42:33
Wird Zeit dass NV endlich Paroli geboten wird mit ihrem unsäglichen proprietären Bullshit.
Intel scheint aus der Schlafphase endgültig erwacht zu sein und geht in den Angriffsmodus. Gut für uns!
Das Duopol zu "zerschlagen" wäre unglaublich wichtig.

fondness
2021-08-20, 08:27:27
Ich finde das auch super und muss schmunzeln, dass Intel (die 23 Jahren aus dem dGPU Markt heraus sind) sowas eher bringt als AMD, die praktisch schon immer dabei waren.

Intel ist ein Ressourcen-Monster, hat also eine völlig andere Ausgangsposition als AMD. Zumal das jetzt wann genau kommt? Frühestens Q1/2022 wenn die GPUs gelauncht werden, da hat AMD womöglich auch schon was anderes und man ist dann nur mehr ein halbes Jahr von RDNA3/Ampere Next weg.


Jedenfalls frage ich mich bei sowas ob das eine Einstellungsfrage / Firmenkultur ist oder ob das nicht auch (zumindest partiell!) von der Marktsituation abhängt.
Nvidia dominiert den Marktanteil bei dGPUs. Intel fängt bei 0 an.
Das sind verschiedene Ausgangssituationen wann es um Strategie zu Open Source vs propriatary IP geht.

So kann man sich natürlich auch seine Kaufentscheidung schön reden. Gerade Intel hätte ohne weiteres die Marktmacht und das Kleingeld sowas durchzudrücken.
Nvidia ist in dieser Beziehung einfach einer der schlimmsten Firmen überhaupt, das schadet langfristig vor allem dem Kunden. Und diese ständigen Relativierungen machen es natürlich nicht besser.

Fragman
2021-08-20, 08:47:39
Du weißt, daß dies eine Nerd-Forenblase ist? Über die Kids in der recht ordentlich großen Sippe krieg ich schon einiges mit, und da beschäftigt sich NIEMAND mit DLSS.

Wenn man hier im Forum halben Tag unterwegs ist, glaubt man, es gibt nichts wichtigeres in der Zockerwelt :freak:

Das kannst Du aber auf jedes Techbuzzword ausweiten.
Dafuer haben sich die normalen User noch nie interessiert.

HOT
2021-08-20, 09:21:52
Intel selbst schreibt was von 256Bit pro Verktorengine übrigens:
https://www.techpowerup.com/285760/intel-xe-hpg-graphics-architecture-and-arc-alchemist-gpu-detailed

Nur falls das untergegangen sein sollte.


Lt Computerbase ist XeSS tatsächlich open source und offen für alle Grafikchips und zudem noch einfach zu implementieren, damit würde DLSS enorm unter Druck geraten. XeSS soll, wenn keine XMX zum Einsatz kommen, auf Int8-Operationen zurückfallen. Ich wette, dass NV DLSS demnächte für alle öffnen wird, aber erst wenns zu spät ist, wie immer :D.

https://www.computerbase.de/2021-08/xe-ss-intels-dlss-konkurrent-mit-ki-auch-fuer-amd-und-nvidia/

Ich finds auch sehr schlau, das PostProcessing da rauszunehmen. FSR und XeSS werden mMn in annähernd jedem neuen größeren Spiel in 22 verteten sein. Selbst wenn Xe floppen würde auf dem Gaming-Markt hätte Intel trotzdem schon einen Fußabdruck hinterlassen ;).

Fragman
2021-08-20, 09:40:32
Zu spaet?
Ohne DLSS gaebe es weder intels Loesung noch die von AMD.

Wichtiger ist eher, was MS mit DirectML macht damit diese ganzen Customloesungen mal zusammen kommen.

HOT
2021-08-20, 09:41:54
DLSS zu öffnen wird dann zu spät sein ;).

Und es ist egal wer angefangen hat im Nachhinein. Das war bei den LL-APIs so und bei vielem mehr ;).

Badesalz
2021-08-20, 09:49:51
Das kannst Du aber auf jedes Techbuzzword ausweiten.
Dafür haben sich die normalen User noch nie interessiert.Ja. Klar. Dann kann man anhand solcher aber auch kaum sinnvolle marktstrategische Theorien aufstellen, wie hier mal wieder seitenlang :freak:

Intel könnte die Situation übrigens ggf. auch nicht verbessern - für uns Kunden - sondern verschlechtern. Nämlich wenn sie sich zum größten Teil eher mit AMD als mit Nvidia duellieren und nur AMD schwächen.
Das wäre eher ein drittes Rad am Fahrrad als eine Belebung.

Und da bin ich wohl auch nicht der einzige Schlaue :rolleyes: der darüber nachdenkt. Die meiste Aufgeregtheit sehe ich nämlich erstaunlicherweise in den uralten grünen Ecken ;)

Troyan
2021-08-20, 09:51:33
Warum muss nVidia DLSS öffnen, wenn es exakt das selbe wie XeSS ist. Intel kopiert einfach. Entwickler müssen die Input-Daten einfach nur DLSS übergeben. Außerdem unterstützt XeSS noch keine TensorCores, wodurch DLSS auf nVidia Hardware immer deutlich schneller sein wird.

Benutzername
2021-08-20, 09:54:35
Zu spaet?
Ohne DLSS gaebe es weder intels Loesung noch die von AMD.


DLSS hat FSR und XeSS befördert, ja. Aber meiner bescheidenen Einschätzung nach war es unausweichlich, daß so etwas kommen würde um die ausufernde Rechenlast in den Griff zu bekommen.



Warum sollte nVidia DLSS öffnen? DLSS benötigt nVidias Rechenpark, für den nur die nVidida Käufer bezahlt haben und es würde ein Verkaufsargument weniger für nV Karten geben. Also warum genau?




Wichtiger ist eher, was MS mit DirectML macht damit diese ganzen Customloesungen mal zusammen kommen.

XeeSS und FSR sind doch beide open source. Kann jeder integrieren, der will.

Troyan
2021-08-20, 10:00:00
FSR hat nichts mit DLSS und XeSS zu tun. FSR ist dummes nachschärfen und existiert im Grunde seit Jahrzehnten.

DLSS und XeSS ersetzen die händisch programmierte Heuristik von TAA. Sie sind also Weiterentwicklungen und dank Matrix-Engines (aka TensorCores) kann dies nun auch in Echtzeit geschehen.

HOT
2021-08-20, 10:00:07
Warum muss nVidia DLSS öffnen, wenn es exakt das selbe wie XeSS ist. Intel kopiert einfach. Entwickler müssen die Input-Daten einfach nur DLSS übergeben. Außerdem unterstützt XeSS noch keine TensorCores, wodurch DLSS auf nVidia Hardware immer deutlich schneller sein wird.

Kopieren kann Intel hier nichts, da DLSS nicht offen ist. Die wichtigen Bestandteile sind der Hirnschmalz der Intel-Guys.

Troyan
2021-08-20, 10:01:27
Ich zitiert dich normal nicht, aber kopieren kann Intel hier nichts, da DLSS nicht offen ist.

Das XeSS eine DLSS Kopie mit Intel-eigenem Netzwerk ist, sollte selbst dir auffallen. Aber gut, dafür müsste man irgendwie Ahnung haben. :(

HOT
2021-08-20, 10:02:35
Blödsinn. Die Idee kann man ja auch ruhig kopieren, aber der Hirnschmalz steckt ja im Netzwerk und das ist keine Kopie. Bist du beleidigt, weil das jetzt mal jemand anderes macht wie damals NV? Oder weil jetzt Böse Nachahmer kommen und dem armen NV die Idee "klauen".

Badesalz
2021-08-20, 10:03:12
Warum sollte nVidia DLSS öffnen? DLSS benötigt nVidias Rechenpark, für den nur die nVidida Käufer bezahlt haben und es würde ein Verkaufsargument weniger für nV Karten geben. Also warum genau?DAS hab ich auch noch nicht gepeilt. Legen sich Intel und AMD dann in einer kleinen Halle jeweils 200 DGX A100 zu oder wie läuft das dann? Und die Software dafür? Kostete nichts, also open source und verschenken?
Ob die Soft nicht teils Techniken enthält die auch im Treiber selbst für Vorteile sorgen?

Und wir reden nun immernoch und weiterhin über diesen Quark ;)

Troyan
2021-08-20, 10:09:36
Blödsinn. Die Idee kann man ja auch ruhig kopieren, aber der Hirnschmalz steckt ja im Netzwerk und das ist keine Kopie. Bist du beleidigt, weil jetzt mal jemand anderes macht wie damals NV?

:freak:

Trollo, dass Netzwerk ist überhaupt nicht das Problem. Dafür gibt es kluge Köpfe, die überall auf der Welt sowas schaffen. Die Kopie steckt im Konzept, dass exakt 1:1 dem von DLSS entspricht.

Wie man behaupten könnte, Intel hätte nicht kopiert, wenn es exakt DLSS entspricht, ist auch schon fazinierend. :eek:

HOT
2021-08-20, 10:12:06
DAS hab ich auch noch nicht gepeilt. Legen sich Intel und AMD dann in einer kleinen Halle jeweils 200 DGX A100 zu oder wie läuft das dann? Und die Software dafür? Kostete nichts, also open source und verschenken?
Ob die Soft nicht teils Techniken enthält die auch im Treiber selbst für Vorteile sorgen?

Und wir reden nun immernoch und weiterhin über diesen Quark ;)

DLSS wird untergehen, wenn es nicht geöffnet wird. Warum sollte noch ein Entwickler das nutzen wollen angesichts der OpenSource-Alternativen, die auch noch einfacher zu implemenetieren sind offenbar? Was NV da für Kosten deswegen hat ist mir offengesagt scheissegal.

:freak:

Trollo, dass Netzwerk ist überhaupt nicht das Problem. Dafür gibt es kluge Köpfe, die überall auf der Welt sowas schaffen. Die Kopie steckt im Konzept, dass exakt 1:1 dem von DLSS entspricht.

Wie man behaupten könnte, Intel hätte nicht kopiert, wenn es exakt DLSS entspricht, ist auch schon fazinierend. :eek:

Ich hatte also recht, das böse Intel hat dem armen NV die Idee geklaut.

Badesalz
2021-08-20, 10:20:06
DLSS wird untergehen, wenn es nicht geöffnet wird. Warum sollte noch ein Entwickler das nutzen wollen angesichts der OpenSource-Alternativen, die auch noch einfacher zu implemenetieren sind offenbar? Was NV da für Kosten deswegen hat ist mir offengesagt scheissegal.Ich hab mich das wertfrei gefragt. Mir selbst liegt nichts daran das zu schützen ;)

Troyan
2021-08-20, 10:27:36
Ich hatte also recht, das böse Intel hat dem armen NV die Idee geklaut.

Trollo, niemand hat Probleme mit dem was Intel macht. Nur sollte man eben die Realität akzeptieren.
Ohne nVidia gäbe es kein XeSS. Und ohne Intel's Matrix Engines gäbe es kein XeSS.

Als PC-Spieler freut es mich. Das ist der Vorteil, wenn man moderne GPUs kauft.

Loeschzwerg
2021-08-20, 10:31:46
Die Kopie steckt im Konzept, dass exakt 1:1 dem von DLSS entspricht.

Ein Rad ist ein Rad

Troyan
2021-08-20, 10:39:30
Ja, aber irgendwer hat das Rad zu erst erfunden. Intel hätte auch den DLSS 1.0 Weg gehen können. Man hat sich aber klar für DLSS 2.0 entschieden und verwendet im Grunde auch die selben Input-Variablen. Der Unterschied wird wohl einzig in der Qualität des Netzwerkes und der Implementierung jenes über die API für die verschiedenen GPU-Architekturen liegen.

Aber das Konzept an sich ist klar 1:1 von DLSS 2.0 kopiert. Ist ja nichts schlechter, da es den Lauf von technischer Weiterentwicklung entspricht.

unl34shed
2021-08-20, 10:44:12
Sollen sie etwa noch die Uhrzeit und Stand der Sonne in Tokyo mit einfließen lassen? Das ist nun mal ein Filter, der auf begrenzte Ressourcen (Spiel) angewandt wird. Dass man dann am Ende auf die gleichen Input Variablen kommt, sollte einleuchten.

Troyan
2021-08-20, 10:59:46
Klar und genau deswegen ist XeSS eine DLSS 2.0 Kopie: Weil es anders nicht gehen würde.
Gott, einige Trolle in diesem Forum sind schon herzerwärmend.

Davon abgesehen ist es das beste, was für nVidia-User passieren kann. Der Aufwand DLSS zusätzlich zu unterstützen ist minimal. Das führt dazu, dass die Verbreitung von ML-Upscaling Techniken über TensorCores sich noch schneller verbreiten. Win2Win Situation sozusagen für nVidia-User. Wer Turing gekauft hat, kann in Zukunft XeSS über TC benutzen. Das macht die GPUs deutlich wertstabiler. Daher ist die Kopie von Intel ist auch positiv aus Kundensicht.

|MatMan|
2021-08-20, 11:04:06
Anstatt DLSS zu öffnen, könnte nVidia auch mit einer neuen Version mit deutlich besserer Qualität und/oder anderen Features kommen. Das Ende der Fahnenstange ist da sicher noch nicht erreicht.

Das ist doch immer das nV Argument: (angeblich) mehr liefern als die Konkurrenz, dafür eben nicht offen. Wenn nV dann doch den Spieleentwicklern Personal schickt, welches ihnen DLSS ins Spiel einbaut, kann ich mir schon vorstellen, dass DLSS noch eine Weile neben den beiden Alternativen existiert.

davidzo
2021-08-20, 11:19:35
Btw, falls das hier untergegangen ist, Intel hat gleichzeitig auch die Ponte Vecchio HPC Architektur näher vorgestellt.
Und da haben sie durchaus ein paar mehr Angaben zu den Ressourcen der XE Cores gemacht.

https://www.servethehome.com/intel-ponte-vecchio-is-a-spaceship-of-a-gpu/

Ich weiß nicht inwieweit das übertragbar ist bzw. XE-HPG in der Hinsicht anders, aber PV/XE-HPC hat riesige :eek: L1 Caches!
512kb pro XE-Core!

GA100 hat nur 192kb pro SM und das sind schon 50% mehr als Turing und und viermal soviel wie Pascal.


Und die Darstellung des L2 caches ist in den PV Folien genau derselbe graue Block wie bei XE-HPG.
Und der L2 sind bei PV 144mb. Und wie es scheint pro Base-tile, also 288Mb für das gesamt package bzw. 512EU :freak:


Btw, ein grundsätzlicher Unterschied in der Präsntation der XE Cores ist dass Intel bei HPC von 8x512bit Vector und 8x 4096bit Matrix spricht, bei Gaming aber von 16x256bit Vector und 16x1024 Matrix.
Sind das einfach nur unterschiedliche precision Angaben, in DP / SP oder sind das grundsätzlich unterschiedliche XE Cores?

Btw, PV hat übrigens full rate FP64, will heißen der FP32 throughput ist derselbe wie FP64. Auf der Einen Seite gibt Intel in Diagrammen allerdings 32Tflops als theoretisches FP32/64 Maximum an, ein paar Folien weiter steht aber 45Tflops FP32. Ob da die Matrixengines mithelfen können? 45Tflops deckt sich aber fast mit dem Ergebnis einer XE-HP GPU das Intel vor nem halben Jahr mal gezeigt hat. Die hatte aber 4 tiles und damit doppelt soviele EUs wie PV afaik. Irgendwas ist da noch versteckt was ich noch nicht verstehe...

ChaosTM
2021-08-20, 11:37:48
DLSS wird verschwinden so wie all der unnötige crap den NV bisher auf den Markt geworfen hat. Jensen ist in der Beziehung nicht lernfähig. ;)

davidzo
2021-08-20, 11:39:24
Ja, aber irgendwer hat das Rad zu erst erfunden. Intel hätte auch den DLSS 1.0 Weg gehen können. Man hat sich aber klar für DLSS 2.0 entschieden und verwendet im Grunde auch die selben Input-Variablen. Der Unterschied wird wohl einzig in der Qualität des Netzwerkes und der Implementierung jenes über die API für die verschiedenen GPU-Architekturen liegen.

Aber das Konzept an sich ist klar 1:1 von DLSS 2.0 kopiert. Ist ja nichts schlechter, da es den Lauf von technischer Weiterentwicklung entspricht.

Solche Deep Learning Methoden um Bilder/Videos upzuscalen gab es aber (z.B. im wissenschaftlichen Kontext) auch schon vorher. Die Frage ist ob nvidia da soviel eigene technische Lösungen gebaut hat dass das patentierbar ist bzw. nicht mehr umgehbar. Und die Patente die nvidia da hat sind wohl zu spezifisch als dass das Intel eine Lösung komplett verbauen würde.
Upscaling mit Temporaler Komponente und Bewegungsvektoren kommt seit 20 Jahren jedes mal zum Einsatz wenn Hollywood irgendeine "remastered" Version eines alten Films herausbringen will. Würde mich nicht wundern wenn einige grundlegende Patente da sogar schon abgelaufen sind.

Eine "Geschäftsidee", also ohne konkrete technische Erfindungshöhe kann man sich aus gutem Grund nicht patentieren lassen.
Denn sonst würden sich 5 Milliarden Menschen permanent überlegen wie man daran etwas verdienen kann dass Leute atmen und pissen.

DrFreaK666
2021-08-20, 11:43:13
Ich finde das auch super und muss schmunzeln, dass Intel (die 23 Jahren aus dem dGPU Markt heraus sind) sowas eher bringt als AMD, die praktisch schon immer dabei waren...

Also in meiner Erinnerung hat AMD ATI übernommen ;)

ChaosTM
2021-08-20, 11:44:29
Apple hat mal versucht sich die Barrenform mit abgerundeten Ecken patentieren zu lassen. ;)

Mangel76
2021-08-20, 12:45:52
DLSS wird verschwinden so wie all der unnötige crap den NV bisher auf den Markt geworfen hat. Jensen ist in der Beziehung nicht lernfähig. ;)

Lernfähigkeit würde ich ihm nicht absprechen. Man sucht halt Ansatzpunkte, bei denen man schneller dran ist als der Rest des Marktes. Das war bei GSync so und ist bei DLSS nicht anders. Man ist mit so etwas schneller am Markt und schützt den Vorteil durch eigentlich unnötige Hardwareverknüpfung. NVIDIA wird das Pferd so lange reiten, wie es Geld oder anderen Nutzen bringt (DLSS als Verkaufsargument). Wenn die Konkurrenz dann nachgezogen ist, wird man von dem Gaul absteigen und ein neues Pferd suchen. Warum sollte ein Spieleproduzent auch auf DLSS setzen und sich damit den Kundenkreis beschneiden, wenn es ebenbürtige Konkurrenten gibt, bei denen es keine Beschränkung gibt? DLSS hätte nur dann eine Chance, wenn es entweder qualitativ deutlich besser ist oder eben auch für fremde GPUs nutzbar wird. Aber daran glaube ich nicht, NV ist immer auf der Suche nach dem kaufentscheidenden Alleinstellungsmerkmal (RTX!?). Und wenn das alte nicht mehr zieht, sucht man das nächste.

Troyan
2021-08-20, 12:51:58
Solche Deep Learning Methoden um Bilder/Videos upzuscalen gab es aber (z.B. im wissenschaftlichen Kontext) auch schon vorher. Die Frage ist ob nvidia da soviel eigene technische Lösungen gebaut hat dass das patentierbar ist bzw. nicht mehr umgehbar. Und die Patente die nvidia da hat sind wohl zu spezifisch als dass das Intel eine Lösung komplett verbauen würde.
Upscaling mit Temporaler Komponente und Bewegungsvektoren kommt seit 20 Jahren jedes mal zum Einsatz wenn Hollywood irgendeine "remastered" Version eines alten Films herausbringen will. Würde mich nicht wundern wenn einige grundlegende Patente da sogar schon abgelaufen sind.


Die Schöpfungshöhe liegt bei DLSS im Netzwerk und in der Implementierung des Inference-Modells. Das kann man kaum schützen und es macht auch kein Sinn.

XeSS läuft im besten Fall genauso schnell auf nVidia-Hardware, im schlimmsten Fall ist DLSS schneller. Bei der Qualität muss man einfach schauen.

Badesalz
2021-08-20, 12:56:19
Auf der Einen Seite gibt Intel in Diagrammen allerdings 32Tflops als theoretisches FP32/64 Maximum an, ein paar Folien weiter steht aber 45Tflops FP32.Dann waren die 40 Tflops von welchen auf der ersten oder zweiten Seite dieses Threads (mein ich) spekuliert wurde, garnicht mal so schlecht :tongue:
D.h. aber auch, daß man damit weder AMd noch NV auf dem falschen Fuß erwischen wird. Bin gespannt was die da noch so alles planen bevor Xe-HPC groß werden könnte ;)

davidzo
2021-08-20, 13:22:27
Dann waren die 40 Tflops von welchen auf der ersten oder zweiten Seite dieses Threads (mein ich) spekuliert wurde, garnicht mal so schlecht :tongue:
D.h. aber auch, daß man damit weder AMd noch NV auf dem falschen Fuß erwischen wird. Bin gespannt was die da noch so alles planen bevor Xe-HPC groß werden könnte ;)


Jo, die FP32 Tflops beeindrucken jetzt nicht so.
Aber 45Tflop FP64 ist schon heftig, das ist mehr als 4x A100 oder Mi-100.

Und die Bandbreite ist ebenso beeindruckend. 5TB/s on package (8xHBM2e) und 2TB/s off Package (CXL Links)
Das ist die Gesamtbandbreite von 4x Mi-100 und mehr als das Dreifache der 600gb/s NVlinks von A100.

Und PV ist ähnlich gut skalierbar wie Ampere, denn während Mi-100 nur 4x karten pro DualCPU Node sind geht PV biszu 8 pro Node (ampere praktisch auch bis 8x, theoretisch bis 16x).

fondness
2021-08-20, 13:32:47
Naja, das ist vermutlich weniger, als MI200 noch dieses Jahr liefern wird.

ryan
2021-08-20, 13:39:32
Jo, die FP32 Tflops beeindrucken jetzt nicht so.
Aber 45Tflop FP64 ist schon heftig, das ist mehr als 4x A100 oder Mi-100.

Und die Bandbreite ist ebenso beeindruckend. 5TB/s on package (8xHBM2e) und 2TB/s off Package (CXL Links)
Das ist die Gesamtbandbreite von 4x Mi-100 und mehr als das Dreifache der 600gb/s NVlinks von A100.

Und PV ist ähnlich gut skalierbar wie Ampere, denn während Mi-100 nur 4x karten pro DualCPU Node sind geht PV biszu 8 pro Node (ampere praktisch auch bis 8x, theoretisch bis 16x).


Ja die 45 Tflops FP64 hat Moore's Law Is Dead schon im Februar vorhergesagt. Seine Intel Quellen sind in letzter Zeit sehr zutreffend.


https://youtu.be/2JMxnEblKlA?t=279

robbitop
2021-08-20, 13:56:51
Intel ist ein Ressourcen-Monster, hat also eine völlig andere Ausgangsposition als AMD. Zumal das jetzt wann genau kommt? Frühestens Q1/2022 wenn die GPUs gelauncht werden, da hat AMD womöglich auch schon was anderes und man ist dann nur mehr ein halbes Jahr von RDNA3/Ampere Next weg.
Muss man mal abwarten.



So kann man sich natürlich auch seine Kaufentscheidung schön reden. Gerade Intel hätte ohne weiteres die Marktmacht und das Kleingeld sowas durchzudrücken.
Geld löst das nicht. Marktanteil ist hierfür relevant. Und der ist bei Intel noch 0.
Was für eine Kaufentscheidung eigentlich? Meine eigene GPU ist noch von 2016. ;)


Nvidia ist in dieser Beziehung einfach einer der schlimmsten Firmen überhaupt, das schadet langfristig vor allem dem Kunden. Und diese ständigen Relativierungen machen es natürlich nicht besser.
Ist keine Relativierung. Die Frage ist einfach, wie sich andere in der exakt gleichen Situation verhalten würden und mMn ist die Frage legitim.

Grundsätzlich sehe ich in jeder Situation dieses Verhalten als Endkundenschädlich an.


----------------
Wegen XeSS kopiert DLSS: DLSS ist auch einfach nur eine Weiterentwicklung von TAA und temporal basierten Rekonstruktionstechniken, die es ein halbes Jahrzehnt vor DLSS gab. Nur, dass das Clamping per NN funktioniert und nicht per Heuristik. Weder Clamping noch NN sind neue Ideen. Es ist einfach nur das erste Mal, dass genau diese spezifische Anwendung zum Einsatz kommt. Dass Heuristiken von NNs sehr gut ersetzt werden können, war vorher auch schon klar.
DLSS ist sehr gut umgesetzt - aber eigentlich ist es vom reinen Konzept her nichts als eine logische Weiterentwicklung des Bestehenden.

Troyan
2021-08-20, 14:06:27
Stimmt, Turing-Kunden haben echt die Arschkarte: Raytracing, DLSS 2.0, DX12U und bald XeSS. Die schauen absolut neidisch auf die Leute, die sich so eine geile RDNA1 Karte gekauft haben.

aufkrawall
2021-08-20, 14:23:35
Gibts mit Intel eigentlich einen Treiber Shader Cache für D3D12 und Vulkan? Das vertrottelte AMD-Windowsteam bekommt das leider nicht richtig auf die Reihe. Sollte für Intel eigentlich machbar sein, besser zu werden als das. Ohne Widerrufsrecht würd ich Intel aber wohl auch nicht kaufen. ;D