PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Xe discrete GPUs (DG1, 2021 + DG2 "Alchemist", 2022)


Seiten : 1 [2] 3 4 5 6 7

BoMbY
2018-05-03, 21:34:31
Das Patent Cross License Agreement zwischen AMD und Intel (https://www.sec.gov/Archives/edgar/data/2488/000119312509236705/dex102.htm) ist soweit ich das sehe nicht auf CPUs beschränkt.

Kriton
2018-05-03, 21:51:32
Ich habe es gerade nur grob durchgesehen und auf den ersten Blick auch nichts richtig Hartes gefunden. Allerdings werden von beiden Seiten bei der Definition ihrer jeweiligen Prozessoren nur CPUs benannt, so dass der Sinn und Zweck doch in diese Richtung zu deuten scheint.
Aber das ist jetzt nur sporadisch gelesen und aus der Hüfte geschossen.

BoMbY
2018-05-03, 22:24:31
Die grundsätzliche Definition ist halt relativ offen:


1.33 “Processor” shall mean any Integrated Circuit or combination of Integrated Circuits capable of processing digital data, such as a microprocessor or coprocessor (including, without limitation, a math coprocessor, graphics coprocessor, or digital signal processor).


Und überall wird sich dann wieder auf dieses definierte "Processor" bezogen.

YfOrU
2018-05-05, 08:19:23
Wird Intel hier nicht ein Problem mit Patenten bekommen, also in dem Sinne, dass sie einiges, was Sinn macht, einfach nicht realisieren können/dürfen?

Was GPU IP betrifft ist Intel sehr gut aufgestellt. Das Nutzungsrecht für Nvidias Patente ist nicht temporär gewesen und zum 31.03.2017 ausgelaufen sondern gilt dauerhaft für alle bis dahin eingereichten.
http://download.intel.com/pressroom/legal/Intel_Nvidia_2011_Redacted.pdf
4.1 Term. This Agreement and the rights and licenses granted hereunder shall become effective on the Effective Date, and shall continue in effect until the expiration of the last patent licensed hereunder to expire unless such rights and licenses are sooner terminated by a Party pursuant to Section 4.2. Except as expressly set forth in Sections 4.2(a) or 4.2(b), neither this Agreement nor any of the rights or licenses granted herein may be terminated for any reason.

Effektiv hat man sich bei Intel damit gegenüber der Vergangenheit abgesichert und auf einen aktuellen Stand gebracht. Da selbst entwickelt wird fallen auch Patente ab und deshalb wurde das recht teure Cross Licence Agreement ($1,5 Mrd.) nicht verlängert. Ein neues mit AMD bezogen auf GPUs ist somit nicht notwendig gewesen.

fondness
2018-05-06, 12:41:50
Ich verstehe eh nicht, warum nvidia das gemacht hat. Das Geld haben sie nicht wirklich gebraucht und jetzt hat man mit Intel dadurch mittelfristig einen neuen Player am Markt. Ohne Patente hätte Intel ein Problem gehabt.

Brillus
2018-05-06, 14:17:22
Ich verstehe eh nicht, warum nvidia das gemacht hat. Das Geld haben sie nicht wirklich gebraucht und jetzt hat man mit Intel dadurch mittelfristig einen neuen Player am Markt. Ohne Patente hätte Intel ein Problem gehabt.

Danny wär Intel zu AMD gegangen. Die hätten sich finanziell nein sagen nicht erlauben gekonnt.

Troyan
2018-05-06, 14:36:26
Ich verstehe eh nicht, warum nvidia das gemacht hat. Das Geld haben sie nicht wirklich gebraucht und jetzt hat man mit Intel dadurch mittelfristig einen neuen Player am Markt. Ohne Patente hätte Intel ein Problem gehabt.

Intel bekam Zugriff durch das Chipsatzabkommen mit nVidia. Da Intel das Abkommen einseitig aufgekündigt hat, hat nVidia geklagt. Die $1,5 Mrd über 6 Jahre sind natürlich viel Geld für eine Firma gewesen, die 2010 gerade mal $253 Millionen Gewinn gemacht hat: https://nvidianews.nvidia.com/news/nvidia-reports-financial-results-for-fourth-quarter-and-fiscal-year-2011

y33H@
2018-05-07, 13:33:56
Bei Intel läuft's wohl grade :biggrin:

This weekend i had the honor and pleasure to celebrate with my graphics team a wonderfull avhievment of developing the next generation Intel graphics core.

This amazing achievment that was done in a record time for a very aggreaive goal was recognize by Intel managment as one of the top acheivments in 2017 and we all had the opportunity to celebrate with friends, colleagues and family the amazing milestones at Intel Legend & Luminaries event at San Francisco .

This is also an opportunity to thank all my team that work so amazingly for 2 years to acheive this amazing acomplishment (and could not attend but was a big part of journey), i also like to take the opportunity to thank Amir Faintuch who provided us a lot of leadership and support since i join the team so we can set it up towards graphics leadership.

Recently you might heard from intel CEO on the new ambitious of intel to build amazing new revolutionary graphics solutions which the foundation to it is the first step along the long journey my team celebrated this weekend.

Locuza
2018-05-07, 13:58:35
Mhh 2017 top achievement.
Gen11 bei Ice Lake oder gar schon Gen12/Arctic Sound bei Tiger Lake?

BoMbY
2018-05-07, 14:26:15
Kommt Ice Lake überhaupt noch raus (in Stückzahlen)? Mit den aktuellen Prozessproblemen können die auch gleich Tiger Lake veröffentlichen, vorausgesetzt der Zeitpunkt wird nicht auch noch gerissen.

Locuza
2018-05-07, 15:23:03
Cannon-Lake mit Gen10 soll nur in sehr geringen Stückzahlen in 10nm ausgeliefert werden.
Aktuell sieht es so aus, als ob Ice Lake mit Gen11 die Massenfertigung in 10nm(+) einleiten soll für das Jahr 2019, wobei Intel nicht spezifizieren wollte wann genau im Jahr 2019 die Massenfertigung von 10nm(+) stattfinden soll.

gmb
2018-05-11, 20:25:08
Haben sie wohl, in Relation dazu das Gen9 eine echte Feature-Sau darstellt mit der ganzen DX12-Spec, ASTC, nativem 16x MSAA in Hardware, Quarter-Rate FP64, Double-Rate FP16 usw.



Speziell für das Alter. Skylake mit Gen9 wurde zur IDF 2014 demonstriert, das Design ist also vom Stand 2013-2014. Durch die 10nm Verzögerung hat Intel seitdem kein GPU Update mehr gebracht, die aber nicht der GPU Abteilung anzulasten ist. Icelake hätten sie auf 14nm++ portieren sollen, wurde damals aber abgelehnt.


Das Perf/Watt Verhältnis soll mit Gen11 und Gen12 massiv steigen.

[Exclusive] Intel future performance projections
A reliable birdie provided me with Intel's perf/watt targets for future GPU architectures.

Gen 11 GPU is expected to be 2x the performance of Gen 10

Gen 12 GPU is expected to be 2x the performance of Gen 11

Intel aiming for Gen 12 to offer better perf/watt than NVIDIA's competing GPUs at below 60W and at rough parity above 60W. http://aeassa.blogspot.de/2018/05/exclusive-intel-dgpu-performance.html

Fusion_Power
2018-05-15, 14:47:56
Passt irgend wie auch hier rein, ich fand das ein interessantes Video. Hab gar nicht gewusst, dass Intel sowas schon mal gemacht hat.

um-1fAVU1OQ

Von der Idee her gar nicht mal so übel.

deekey777
2018-05-15, 14:55:40
Passt irgend wie auch hier rein, ich fand das ein interessantes Video. Hab gar nicht gewusst, dass Intel sowas schon mal gemacht hat.

http://youtu.be/um-1fAVU1OQ

Von der Idee her gar nicht mal so übel.
Das muss ich schnell in den Larrabee-Thread posten!

dildo4u
2018-06-12, 23:01:49
2020 ist als Termin für die erste Diskrete GPU bestätigt.

https://www.pcper.com/news/Graphics-Cards/Intel-confirms-first-graphics-chips-will-land-2020

deekey777
2018-06-13, 17:01:52
Und wie immer bei einer Intel'schen Ankündigung muss die neue Hardware in einen Mac: https://appleinsider.com/articles/18/06/13/future-macs-could-adopt-intels-new-high-performance-discrete-graphics-chips

mczak
2018-06-13, 17:55:11
2020 ist als Termin für die erste Diskrete GPU bestätigt.

Fragt sich bloss - kommt der dann in 14nm :tongue:.

robbitop
2018-06-13, 20:01:31
Ich hatte zuletzt was von 10nm+ gelesen.

gravitationsfeld
2018-06-13, 20:05:58
Und wie immer bei einer Intel'schen Ankündigung muss die neue Hardware in einen Mac: https://appleinsider.com/articles/18/06/13/future-macs-could-adopt-intels-new-high-performance-discrete-graphics-chips
Dazu muessen sie erst mal konkurrenzfaehige Hardware bauen und da bin ich immer noch extrem skeptisch.

Sie haben keinen Fertigungsvorteil mehr in 2020. Das heisst sie muessen Turing und Vega auf reiner Architektur-Ebene konkurrieren. Gen 9 ist Welten davon entfernt. Effiziente grosse Chips zu bauen ist im Uebrigen schwieriger als effiziente kleine Chips.

Meiner Meinung wird das nen OEM-Produkt mit Mid-Range-Performance, dass sie ueber Bundles mit ihren CPUs in den Markt druecken.

Loeschzwerg
2018-06-13, 20:06:37
Ich hatte zuletzt was von 10nm+ gelesen.

Das würde zumindest hinsichtlich ICL passen, sofern Intel den 10nm+ nicht auch vermasselt.

LadyWhirlwind
2018-06-13, 20:30:09
Intel entwickelt die Grafikkarten sowieso nicht um damit Grafik anzuzeigen, sondern um es geht Intel um all jene Bereiche bei denen Grafikkarten heute um Grössenordnungen schneller als CPUs sind. Das da die Leistung der iGPUs steigt und ev. sogar dedizierte Grafikkarten im Midrange-Bereich für Gamer abfallen, ist ein schöner Nebeneffekt.

In dem Sinn muss die Karte auch keine Konkurenz zu Turing sein, sondern nur schnell genug um Intel für entsprechende Kunden interessant zu machen.

(Entsprechend sind auch Gerüchte darüber zu bewerten, dass es erstmal keine HighEnd GPU von AMD gegeben wird.)

gravitationsfeld
2018-06-13, 21:09:51
Und warum sollten die Intel-GPUs kaufen statt NVIDIA-Karten samt etablierter CUDA-Infrastruktur?

LadyWhirlwind
2018-06-13, 21:16:17
Und warum sollten die Intel-GPUs kaufen statt NVIDIA-Karten samt etablierter CUDA-Infrastruktur?

Als alternative gibt es immer noch OpenCL. Klar wird es Intel schwer haben, in Projekten zu gewinnen, für die viel CUDA-Code schon vorhanden ist.


Weil Intel ja auch andere Benefits anbieten kann. Vorallem für Grosskunden dürfte das z.B. eine Möglichkeit sein, bessere Konditionen zu kriegen. E
nthält das Projekt eine grosse Anzahl von CPUs wird Intel sicher auch recht grosszügig sein, wenn auch Intel GPUs verwendet werden.

Ausserdem kann Intel natürlich auch auf technischer Ebene die Produkte besser integrieren als Nvidia das jemals können wird, da Intel die ganze Plattform kontrolliert.

gravitationsfeld
2018-06-14, 00:04:29
Als alternative gibt es immer noch OpenCL. Klar wird es Intel schwer haben, in Projekten zu gewinnen, für die viel CUDA-Code schon vorhanden ist.
Und warum sollte man das kaufen wenn es schlechter Perf/Watt hat fuer Datencenter?

Weil Intel ja auch andere Benefits anbieten kann. Vorallem für Grosskunden dürfte das z.B. eine Möglichkeit sein, bessere Konditionen zu kriegen. E
nthält das Projekt eine grosse Anzahl von CPUs wird Intel sicher auch recht grosszügig sein, wenn auch Intel GPUs verwendet werden.
Was meine Aussage war, sie muessen es mit Bundles verkaufen, weil den Schrott sonst keiner will.

Ausserdem kann Intel natürlich auch auf technischer Ebene die Produkte besser integrieren als Nvidia das jemals können wird, da Intel die ganze Plattform kontrolliert.
Was soll sich da "besser integrieren"? Cache coherency waere nett, aber ist auch nicht umsonst was Power angeht.

Loeschzwerg
2018-06-14, 06:41:19
Intel entwickelt die Grafikkarten sowieso nicht um damit Grafik anzuzeigen,

https://twitter.com/TMFChipFool/status/982054901105782784

Schau 'mer mal.

LadyWhirlwind
2018-06-14, 07:59:42
Und warum sollte man das kaufen wenn es schlechter Perf/Watt hat fuer Datencenter?


Was meine Aussage war, sie muessen es mit Bundles verkaufen, weil den Schrott sonst keiner will.


Was soll sich da "besser integrieren"? Cache coherency waere nett, aber ist auch nicht umsonst was Power angeht.

Woher weisst du, dass das Schrott wird? Über die zu erwartende Performance können wir nur Spekulieren. Wenn Intel unbedingt will, kriegen die schon was brauchbares hin.
Im Gegensatz zu deren iGPUs dürften die Treiber hier grössere Priorität haben.

Ganon
2018-06-14, 09:41:50
Im Gegensatz zu deren iGPUs dürften die Treiber hier grössere Priorität haben.

Zumindest im OpenSource/Linux Bereich ist hier ja so ziemlich alles bereits in trockenen Tüchern. Sogar eine frische neue OpenCL Runtime (https://01.org/compute-runtime) für Intel CPU/GPUs ab Broadwell.

Letztendlich müsste man nur noch den Kram nach Windows portieren und den Direct3D Kram mit einbauen.

gravitationsfeld
2018-06-15, 07:04:43
Woher weisst du, dass das Schrott wird?
Weil Intel im Moment selbst AMD Jahre hinterherhinkt. Da muessten Wunder geschehen.

Im Gegensatz zu deren iGPUs dürften die Treiber hier grössere Priorität haben.
Das haben sie in den letzten 20 Jahren nicht geschafft. Und es ist nicht der Treiber das Hauptproblem.

Setsul
2018-06-15, 20:22:34
@gravitationsfeld
Für Datacenter sind es doch sowieso Dutzende GPUs, also wieso nicht EMIB oder einfach MCM, das Ganze runter auf ideale Spannung (dann wohl nur noch 500 MHz) und dafür einfach 2000mm² draufkleben und lachen. Absolut unbrauchbar als GPU aber fürs reine number crunching könnte das funktionieren.

Wäre doch klassisch Intel wenn der Xeon Phi mit besseren CPU-Kernen nicht wie geplant besser als GPU wird, aber eine neue GPU grottenschlecht als GPU, aber besser als neuer Xeon Phi wird.


Einen Haufen SIMD + Cache auf einen Chip zu klatschen für rohe Flops/W kriegen die schon hin, aber ob das eine vernünftige GPU wird, darf bezweifelt werden.

Intel hatte doch diese komische Logik, dass der Xeon Phi möglichst breites SIMD bekommt, das absolut fest ist in der Vektorlänge, während die GPUs nur 8 Elemente bearbeiten dürfen, aber von 4x2 bis 1x8 frei einstellbar sind. Der Rest der Welt machts genau umgekehrt und versucht variable Vektorlänge auf CPUs zu bringen und benutzt seit Jahren konstante, möglichst breite Vektoren (32/64) bei GPUs. Oder irre ich mich da?

deekey777
2018-06-20, 22:14:10
Tom Forsyth zurück zu Intel: https://techreport.com/news/33826/larrabee-architect-tom-forsyth-rejoins-intel

=Floi=
2018-06-20, 22:18:08
ausgerechnet ein LB architekt. :rolleyes:

fondness
2018-07-17, 19:39:11
Jim Keller scheint die Intel GPU-Abteilung ordentlich zu pushen:

Incredibly productive and fun 2.5 months since Jim joined! Working with Jim is like a 25X boost in perf-per-watt

https://twitter.com/Rajaontheedge/status/1018221032551792640

Kartenlehrling
2018-08-15, 22:05:40
https://twitter.com/IntelGraphics


Intel Discrete GPU 2020 !!! :D

Loeschzwerg
2018-08-16, 06:29:35
Man rühmt sich mit Bezügen auf Multimedia und Gaming... deute ich zumindest so dass diese dGPU nicht nur für den professionellen Bereich gedacht ist.

Immer her damit :)

iuno
2018-08-16, 10:59:08
War ja auch schon zuvor angesagt, dass das was für Spieler werden soll. Ich bin sehr gespannt. Momentan ist AMD auf Linux konkurrenzlos, das merkt man aber leider auch deutlich. Da dauert alles einfach viel zu lange. Dagegen hat Intel z.B. mal eben ihre neue Compute runtime hochgezogen, die auch ganz gut funktioniert.

Kriton
2018-08-16, 11:26:52
War ja auch schon zuvor angesagt, dass das was für Spieler werden soll. Ich bin sehr gespannt. Momentan ist AMD auf Linux konkurrenzlos, das merkt man aber leider auch deutlich. Da dauert alles einfach viel zu lange. Dagegen hat Intel z.B. mal eben ihre neue Compute runtime hochgezogen, die auch ganz gut funktioniert.

Wieso konkurrenzlos? Weil sie im Gegensatz zu nvidia dort open source ermöglichen und Nvidia nur closed source bietet? ich verfolge Linux nicht weiter (wenn die Spiele ohne Wrapper mal ordentlich dort laufen wird das eine Option), also erst gemeinte Frage.

iuno
2018-08-16, 11:45:26
Ja, genau deshalb. Jeder, der keinen Bock auf Scherereien hat, nimmt AMD (oder eben Intel, wenn die IGP genuegt).

Ansonsten mal aufkrawall fragen, der hat im Gegensatz zu mir auch aktuelle Erfahrungen zur Performance von Nvidia unter Linux, also abgesehen von Kompatibilitaet, Pragmatismus oder sonstigen ideologischen Gruenden.

dargo
2018-08-16, 11:47:32
Nett... ein dritter Player kann dem Kunden sicherlich nicht schaden. Bin schon gespannt in welchen Segment es bei Intel los geht.

Shaft
2018-08-16, 14:37:00
Joa, hoffe auf Konkurrenz im Gamer Segment, natürlich auch auf den High End Markt bezogen.

iuno
2018-08-16, 19:52:16
Mir ist noch ein Grund eingefallen, warum das fuer Linuxer besonders interessant wird:
Intel hat GVT-g, womit sich die GPU komplett virtualisieren laesst. Host und mehrere Gaeste koennen sie sich teilen, wobei jeder den normalen, kompletten Treiber benutzt und alle Funktionen haben kann, also z.B. auch Multimedia Zeugs und - ich glaube - Display outputs und nicht nur API Aufrufe durchgereicht werden.
Natuerlich auch fuer Serverbetreiber interessant. AMD hat natuerlich auch Virtualisierung, behaelt das aber momentan noch den Profi-Karten vor.

Kriton
2018-08-16, 19:57:13
Und so wie Intel seine Produkte beschneidet designed, glaubst du, dass die Virtualisierung nicht nur bei den Profikarten freigeschaltet vorhanden sein wird?

iuno
2018-08-16, 19:57:51
Das funktioniert auch heute schon bei billig-IGPs. Waere doch schoen bloed, wenn es ploetzlich eingeschraenkt wird, wenn man das Feature dank genuegend Leistung ueberhaupt erst mal brauchbar nutzen kann.

aufkrawall
2018-08-16, 20:11:34
Ansonsten mal aufkrawall fragen, der hat im Gegensatz zu mir auch aktuelle Erfahrungen zur Performance von Nvidia unter Linux, also abgesehen von Kompatibilitaet, Pragmatismus oder sonstigen ideologischen Gruenden.
Joa. Man kann momentan froh sein, dass Nvidia mal die zig Freeze of Death Bugs halbwegs abgearbeitet hat, die sich vor dem vorletzten Treiber auf Halde türmten.
AMD funktioniert abseits von einigen blöden DC-Bugs wenigstens einfach, und das mit Polaris verdammt gut...

Kriton
2018-08-16, 20:13:16
HTT hast Du auch bei einem i3. Und jetzt sehen wir uns z.B. mal die künftige Generation mit den i9 an. :biggrin:

Ich verstehe ja woher Du kommst, nur traue ich Intel da alles zu. bei den CPUs machen sie es ja auch nur aus produktpolitischen Gründen. Und eine iGPU ist nun einmal keine Konkurrenz zu dezidierten Karten für ein RZ.

AffenJack
2018-08-16, 20:34:17
Wir können ja schon mal anfangen hier etwas rumzuspekulieren, was Intel denn so bringen könnte.
Ich glaube ja, dass Intel sofort mit einem RT Chip kommen wird und ich dachte sie würden die ersten sein die in die Richtung gehen. Intel hat ja schon früher in die Richtung geforscht und ich kann mir gut vorstellen, dass RT der Clou der GPU werden sollte. Etwas dumm, dass Nv dem jetzt zuvor gekommen ist, aber nunja.
Der Grundgedanke dahinter ist einfach, dass es extrem schwer ist den Vorsprung der anderen beim Rasterisieren einzuholen, aber RT wäre jung und man könnte direkt stark angreifen.

iuno
2018-08-16, 20:37:24
@Kriton: naja, wir werden sehen ;)
Ich denke jedenfalls, dass Intel gut daran taete, sowas alles vom Start weg zu bringen, um halt gleich mal auf den Putz zu hauen. Spaeter koennten sie ihrer bekannten Produktpolitik ja immer noch nachgehen, wenn das Zeug nicht floppt.

@AffenJack: Koennte ich mir eigentlich auch gut vorstellen.

Sunrise
2018-08-16, 20:48:26
Intel wird von NV angegriffen, und zwar mit RT in einem Bereich, der viele CPU-Serverfarmen mit einem Schlag komplett überflüssig macht.

Mit Raytracing skaliert alles quasi perfekt und man hat keine MGPU-Sorgen mehr. Hier riecht jeder natürlich die große Cash-Cow.

gravitationsfeld
2018-08-16, 21:31:20
Intel wird von NV angegriffen, und zwar mit RT in einem Bereich, der viele CPU-Serverfarmen mit einem Schlag komplett überflüssig macht.
Mit dem kleinen Problem, dass es keine Karten mit 128GB oder 256GB Speicher gibt.

Sunrise
2018-08-16, 21:40:35
Mit dem kleinen Problem, dass es keine Karten mit 128GB oder 256GB Speicher gibt.
Noch nicht...

gravitationsfeld
2018-08-16, 21:45:05
Bis dahin hat die CPU-Blades wieder 1TB oder mehr. Das Problem verschiebt sich nur nach oben. Dazu kommt, dass GPU-Code immer noch anstrengend zum debuggen ist, in der Filmbranche zaehlt in der Regel die Zeit der Menschen mehr als der Computer.

Ich bin mir da nicht so sicher ob die Filmstudios auf GPUs umsteigen werden.

deekey777
2018-08-16, 21:48:54
Und Intel hat Dank Pohl viel Erfahrung mit RT.


Gemein, oder?

:weg:

AffenJack
2018-08-16, 21:53:32
Mit dem kleinen Problem, dass es keine Karten mit 128GB oder 256GB Speicher gibt.

Könnte man das nicht durch Nvlink und die NvSwitches lösen? Nvidia schreibt ja schon bei den Quadros gerade 48/96, wobei letzteres dann wohl gemeinsamer Adressspeicher über Nvlink ist. Baue daraus nun mit den Switches, die man eh hat, ein großes System mit einem gemeinsamen Speicherpool?

crux2005
2018-08-16, 22:11:37
Wir können ja schon mal anfangen hier etwas rumzuspekulieren, was Intel denn so bringen könnte.
Ich glaube ja, dass Intel sofort mit einem RT Chip kommen wird und ich dachte sie würden die ersten sein die in die Richtung gehen. Intel hat ja schon früher in die Richtung geforscht und ich kann mir gut vorstellen, dass RT der Clou der GPU werden sollte. Etwas dumm, dass Nv dem jetzt zuvor gekommen ist, aber nunja.
Der Grundgedanke dahinter ist einfach, dass es extrem schwer ist den Vorsprung der anderen beim Rasterisieren einzuholen, aber RT wäre jung und man könnte direkt stark angreifen.

Das wird eine eher wilde Spekulation. Wo sollen wir Anfangen...

Ich glaube es wird mehr in Richtung klassischer "GPU" gehen wie die Konkurrenz anbietet. Also mit Dedizierten Einheiten (dank eingekauftem know-how). MESH ähnliches interconnect. ASICS für RT sollte auch als "gesichert" gelten.

Output mindestens 40 TFLOP/s FP32, 30 GigaRay/s, >2 TByte/s Bandbreite.

300-400mm2, hergestellt in einem Intel äquivalent zum 5 nm EUV Prozess.

Könnte man das nicht durch Nvlink und die NvSwitches lösen? Nvidia schreibt ja schon bei den Quadros gerade 48/96, wobei letzteres dann wohl gemeinsamer Adressspeicher über Nvlink ist. Baue daraus nun mit den Switches, die man eh hat, ein großes System mit einem gemeinsamen Speicherpool?

Geht nicht, weil die 96 GiB das Maximum darstellen. Da hilft Momentan auch kein NVLink/switch.

Bei der nächsten Gen. wird das sicher ausgebaut. Oder worauf willst du hinaus?

Troyan
2018-08-16, 23:22:58
Könnte man das nicht durch Nvlink und die NvSwitches lösen? Nvidia schreibt ja schon bei den Quadros gerade 48/96, wobei letzteres dann wohl gemeinsamer Adressspeicher über Nvlink ist. Baue daraus nun mit den Switches, die man eh hat, ein großes System mit einem gemeinsamen Speicherpool?

DXG-2 hat 512GB durch NVLink Switch.

gravitationsfeld
2018-08-16, 23:26:11
Könnte man das nicht durch Nvlink und die NvSwitches lösen? Nvidia schreibt ja schon bei den Quadros gerade 48/96, wobei letzteres dann wohl gemeinsamer Adressspeicher über Nvlink ist. Baue daraus nun mit den Switches, die man eh hat, ein großes System mit einem gemeinsamen Speicherpool?
Kann man schon, aber schnell ist es dann nicht mehr.

dargo
2018-08-17, 09:40:53
Bin schon gespannt ob es mit dem dritten Player Intel einen größeren Schub an A-Sync Bildschirmen geben wird. G-Sync und Intel kann man garantiert ausschließen.

robbitop
2018-08-17, 09:57:36
Ich würde fest davon ausgehen, dass Arctic Sound VRR nach VESA Standard unterstützt. Alles andere wäre ein Nachteil. Außerdem wird Raja das sicherlich forcieren.

Mich würde es aber nicht überraschen, wenn Turing VRR gem. HDMI 2.1 unterstützt. Das ist einfach das nächste große Ding. 120 Hz bei 4K und VRR. Das wird jeder neue TV ab 2019/20 unterstützen. IMO.

Fragman
2018-08-17, 10:07:50
Ich bin mir da nicht so sicher ob die Filmstudios auf GPUs umsteigen werden.

werden sie, ist alles schon laenger in vorbereitung.
mit den neuen karten und nvlink haben sie 96 gb ram, das naechste upgrade wird dann sicher die 128 liefern und das ist ja heut so production limit beim rendern. pixar wird mit deren gpu renderer dann auch soweit sein, arnold wird wohl etwas laenger dauern. aber mit renderman hat man dann auch firmen wie ilm und mpc im boot und mit arnold die ganzen kleinen projekte. das umstellen der online renderfarmen wird sicher noch laenger dauern, aber der vorteil der gpu renderer wird ja sein, das man auch auf cpu rendern kann, mit ergebnissen, die nur ein paar prozent abweichen und eigentlich gleich sind. also kann man gemischt rendern und muss sich nicht um die frage, ob cpu oder gpu, kuemmern.

Locuza
2018-08-17, 12:27:39
Ich würde fest davon ausgehen, dass Arctic Sound VRR nach VESA Standard unterstützt. Alles andere wäre ein Nachteil. Außerdem wird Raja das sicherlich forcieren.

Mich würde es aber nicht überraschen, wenn Turing VRR gem. HDMI 2.1 unterstützt. Das ist einfach das nächste große Ding. 120 Hz bei 4K und VRR. Das wird jeder neue TV ab 2019/20 unterstützen. IMO.
Vermutlich könnte es schon Cannon-Lake.
Intel hat öffentlich gesagt, dass man A-Sync unterstützen wird, für Skylake und den Display-Controller war es leider zu spät.
Cannon-Lake ist leider eine Totgeburt.
Ice-Lake Ende 2019/Anfang 2020 sollte dann endlich den Support ausliefern.

iuno
2018-08-17, 19:13:36
Bin schon gespannt ob es mit dem dritten Player Intel einen größeren Schub an A-Sync Bildschirmen geben wird. G-Sync und Intel kann man garantiert ausschließen.
Die haben schon vor Jahren gesagt, dass sie a-sync unterstuetzen wollen. 2020 sollte auch HDMI 2.1 ein Thema sein. Warum es mehr Monitore geben soll, erschliesst sich mir aber nicht. Die Auswahl ist doch inzwischen ok. Gefuehlt kommen mehr neue Monitore mit VRR raus als ohne. Und der Grossteil der auf dem Markt ist, ist doch eh Schrott.

Anders sieht es bei Notebooks aus. Da hat Intel eh schon investiert, mit PSR und dynamic refresh rate switching. Damit koennen sie auch schon seit ein paar Jahren auf niedrigere Refreshraten des Monitors schalten, ohne dass es schwarz wird, vorausgesetzt das eDP Display unterstuetzt das. A-Sync ist die logische Fortfuehrung dessen und vielleicht bringt es ja auch nochmal merkliche Verbesserungen in der Laufzeit.

dargo
2018-08-17, 19:38:52
Warum es mehr Monitore geben soll, erschliesst sich mir aber nicht. Die Auswahl ist doch inzwischen ok. Gefuehlt kommen mehr neue Monitore mit VRR raus als ohne.
Im Optimalfall sollte es imho überhaupt keine Monitore mehr ohne A-Sync geben damit jeder Spieler was davon hat. ;)

Unicous
2018-08-17, 19:57:49
Na immerhin unterstützt Intel jetzt schon FreeSync... äääh Adaptive Sync. Zwinker zwinker.:wink:

(Wobei, wurde das eigentlich mal getestet? :uponder:)

iuno
2018-08-17, 20:18:01
@dargo: kann ja noch so kommen. Ich sehe nur nicht, wie die GPU von Intel das beschleunigen soll.

@Unicous: Was meinst du?

maguumo
2018-08-17, 20:21:28
Kaby Lake G?

dargo
2018-08-17, 21:13:21
@dargo: kann ja noch so kommen. Ich sehe nur nicht, wie die GPU von Intel das beschleunigen soll.

Ist das nicht einleuchtend? Mehr GPUs die A-Sync supporten (in dem Fall dann zwei IHVs, NV will ja nicht) sollten nach meinem Verständnis noch größeres Interesse bei den Monitorherstellern wecken.

iuno
2018-08-18, 12:00:50
Finde ich nicht. Wenn AMD eine neue Mittelklasse-Grafikkarte raus bringt, sind auch mehr solcher GPUs auf dem Markt. Die Gesamtanzahl der potenziellen Kunden steigt dadurch ja nicht, es werden dadurch nicht mehr dGPUs verkauft. Anders waere es, wenn ploetzlich alle IGPUs von Intel A-Sync koennten.
OK, man koennte noch dahingehend argumentieren, dass ein paar potentielle Kunden vielleicht die Intel statt einer Nvidia kaufen, fuer die aus irgendwelchen Gruenden keine AMD infrage kommt. Ich denke aber dieser potentielle Kundenkreis wird dann doch eher klein sein.

btw: bei den Linux-Treibern steigt die Kollaboration zw. Intel und AMD wohl nochmal an, genaueres weiss man wohl erst Ende September. Das ist natuerlich pure Speku aber vielleicht gibt's ja doch insgesamt auch nochmal mehr Kooperation als das GPU Lizenzabkommen und KBL-G. Das wurde hier ja auch schon spekuliert :uponder:

Locuza
2018-08-18, 12:37:21
Ich würde die iGPUs einfach dazu zählen.
Das würde den Markt hoffentlich allgemein mehr motivieren, entsprechende Elektronik zu verbauen und weiter zu entwickeln.

dargo
2018-08-18, 13:15:47
Finde ich nicht. Wenn AMD eine neue Mittelklasse-Grafikkarte raus bringt, sind auch mehr solcher GPUs auf dem Markt. Die Gesamtanzahl der potenziellen Kunden steigt dadurch ja nicht, es werden dadurch nicht mehr dGPUs verkauft. Anders waere es, wenn ploetzlich alle IGPUs von Intel A-Sync koennten.

Davon gehe ich aus, was anderes macht ja keinen Sinn. Die neueren APUs von AMD beherrschen ja auch A-Sync. Und wie du weiter aufführst... jede nicht von NV gekaufte GPU wäre dann eine A-Sync GPU. Egal ob Intel oder AMD.

Locuza
2018-09-13, 19:04:01
Ein Interview mit Lisa Pearce von Intel über Grafiktreiber, soviel weltbewegendes steht da aber nicht:
http://www.legitreviews.com/legit-reviews-exclusive-lisa-pearce-interview-on-intel-graphics-software_207790#qc8tfUZtrJcUS32B.99

Kurz, man möchte häufiger Treiber veröffentlichen, die Treiberoberfläche und die Features werden in der Zukunft erweitert und verbessert, man möchte viele und lange Grafik Produkte unterstützen.
Ab Skylake hat Intel eine neue oder stark verbesserte Codebasis aufgebaut und diese wird scheinbar immer weiter entwickelt, dass merkt man schon seit längerem, da alles älter als Gen9 keine aktuellen Treiber in vielen Belangen bekommen oder Support fehlt wie für Vulkan.
Aktuell sieht man nicht vor, dass es getrennte Treibercodes für Integrated und dGPUs geben wird, aber man wird sehen, je nach Anforderungsprofil.
Es wird wohl einfach wie bei AMD aktuell ablaufen.
Lisa betont ganz am Anfang das man am meisten die Gaming-Experience verbessern möchte, also Intel nimmt das ganze schon ernst für 2020.

Locuza
2018-10-30, 05:02:02
Mittlerweile kann man eine ganze Menge an Namen von ehemaligen ATI/AMD-Mitarbeitern bei Intel finden.

- Jim Keller
- Raja Koduri
- Chris Hook (Marketing)
- Darren McPhee (Marketing, hat scheinbar The Fixer zu verantworten gehabt)
- Gregory Stoner (War ein senior director von ROCm)
- Mark D Hirsch (Ehemals CVP Systems Engineering, RTG)
- Antal Tungler (War 5 Jahre lang bei AMD bzgl. Marketing zuständig, seit September bei Intel)

Angeblich auch Victor Camardo, welcher 10 Jahre lang bei AMD war und zuletzt Product Manager.

Und sicher noch viele mehr und einige, die vermutlich noch folgen werden.

Ravenhearth
2018-11-13, 23:51:11
Intel Opens Graphics And Hardware Research Center In India With Over 1500 Employees (https://wccftech.com/intel-opens-graphics-and-hardware-research-center-in-india-with-over-1500-employees/)

Loeschzwerg
2018-11-28, 11:37:06
https://www.computerbase.de/2018-11/intel-grafikkarte-arctic-sound-details/

Allzu viele neue Infos erwarte ich jetzt nicht für Dezember, aber warten wir es mal ab.

Die Unterstützung von A-Sync wurde mittlerweile erneut in Aussicht gestellt, bleibt nur die Frage ob schon mit Gen11 oder eben erst mit den dGPUs.

HOT
2018-11-28, 13:11:35
beides. Wurde auch gesagt.

BlacKi
2018-11-28, 13:18:02
auch für die bisherigen onboard gpus?

Loeschzwerg
2018-11-28, 13:27:53
@HOT: Stimmt, geht aus der CB Meldung nur nicht direkt hervor.

Aber hier wird es gesagt:
https://twitter.com/IntelGraphics/status/1063117118705565696

BoMbY
2018-11-28, 13:39:35
Intel unterstützt den VESA-Standard dessen Unterstützung sie bereits 2015 angekündigt haben? Hold the Press ...

SKYNET
2018-11-28, 14:37:29
nach intels letzten versuchen, schrieb ich schon in den comments bei CB:

"in 10 jahren dann in den news... again...

Das Vorhaben wurde aber nur wenige Monate später ebenfalls eingestellt, da auch hier die Erwartungen nicht erfüllt werden konnten.

:devil: :devil: :devil: "

AffenJack
2018-11-28, 14:44:00
Realistischer ist in 10 Jahren:

"Nach dem Einstieg von Intel sah sich AMD einer immer geringeren Profitabilität im Grafikkartenmarkt gegenüber und stelle seine Bemühungen in diesem Markt ein."

Calypso
2018-11-28, 14:56:54
das könnten böse Zungen bereits über den Ist-Zustand äußern...

SKYNET
2018-11-28, 15:09:51
wenn es nicht schon die hardware versaut, wirds der treiber bei intel sein... AMD und NV haben jahrzehnte erfahrung dabei, das kann intel nicht in 2-3 jahren aufholen.

aufkrawall
2018-11-28, 15:17:09
Wie viele Leute Intel AMD abgeworben hat, hast du aber schon mitbekommen?
Außerdem sind die Intel-Treiber schon jetzt wesentlich besser als noch vor ein paar Jahren.

iuno
2018-11-28, 15:44:12
Kann ich bei dem, was man an freien Treibern sieht, auch nicht nachvollziehen. Im Uebrigen hat Intel auch seit vielen Jahren Erfahrung.

SKYNET
2018-11-28, 16:06:57
Wie viele Leute Intel AMD abgeworben hat, hast du aber schon mitbekommen?
Außerdem sind die Intel-Treiber schon jetzt wesentlich besser als noch vor ein paar Jahren.


ja habe ich, und es sind zum grossteil die leute, wo alle sich einig sind "zum glück sind die weg, jetzt gehts endlich wieder vorwärts"

=Floi=
2018-11-28, 16:20:38
Wie viele Leute Intel AMD abgeworben hat, hast du aber schon mitbekommen?
Außerdem sind die Intel-Treiber schon jetzt wesentlich besser als noch vor ein paar Jahren.

nur viel personal macht noch keine gute GPU!

1. schau an, woher intel beim treiber kommt
2. sicher auch nicht viel besser, weil die hardware auch nicht viel taugt. Nur weil 3d läuft braucht man noch nicht in jubel ausbrechen.
kann man mittlerweile AF einstellen?

aufkrawall
2018-11-28, 16:24:39
ja habe ich, und es sind zum grossteil die leute, wo alle sich einig sind "zum glück sind die weg, jetzt gehts endlich wieder vorwärts"
Na, wenn sich der Internet-Stammtisch einig ist, dass es gut für AMD ist, wenn Leute wie Gregory Stoner zu Intel gehen... ;D
*facepalm*

Loeschzwerg
2018-11-28, 16:44:00
schrieb ich schon in den comments bei CB:


Dann bleib doch auch bitte bei CB und lass uns hier in Ruhe :facepalm:


kann man mittlerweile AF einstellen?

Geht hier prima. Anwendung suchen lassen oder manuell auswählen damit ein Profil erstellt wird, dann lässt und sich AF erzwingen.

SKYNET
2018-11-28, 16:45:07
Na, wenn sich der Internet-Stammtisch einig ist, dass es gut für AMD ist, wenn Leute wie Gregory Stoner zu Intel gehen... ;D
*facepalm*

moment... war der nicht für das AMD äquivalent von NVs cuda zuständig?

was natürlich total wichtig ist, bei einem gaming produkt :ulol: X-D

und physX ist weil total verbreitet natürlich ein argument... *hust*

BoMbY
2018-11-28, 17:40:32
Sieht so aus als wäre Raja nicht zu der angeblichen Veranstaltung eingeladen worden:

https://twitter.com/Rajaontheedge/status/1067820001267044353

gravitationsfeld
2018-11-28, 18:01:14
Wie viele Leute Intel AMD abgeworben hat, hast du aber schon mitbekommen?
Außerdem sind die Intel-Treiber schon jetzt wesentlich besser als noch vor ein paar Jahren.
Die Hardware ist immer noch absoluter Muell. Da muessen sie schon Helden-Taten abliefern.

gmb
2018-11-28, 18:04:28
kann man mittlerweile AF einstellen?


Das geht schon seit 4 Jahren mit Haswell. Daran kann man deine Ahnungslosigkeit erkennen.


Die Hardware ist immer noch absoluter Muell. Da muessen sie schon Helden-Taten abliefern.



Die GPU ist Stand 2013 in den CPUs, Vergleiche mit Intels veralteteter iGPU solltest du besser nicht ziehen.

aufkrawall
2018-11-28, 18:07:07
Die Hardware ist immer noch absoluter Muell. Da muessen sie schon Helden-Taten abliefern.
Ich würd davon ausgehen, dass für den HPC-Kram die bisherige Architektur auch auf dem dafür zugehörigen Müll landen wird. War bis 2020 genug Zeit für eine komplette Neuentwicklung.

Locuza
2018-11-28, 18:07:14
Ich sehe eher AMD in der Not Heldentaten abzuliefern, wenn sie nicht ordentliche Probleme mit Intel haben möchten.

Linmoum
2018-11-28, 18:53:42
Erstmal muss Intel 2020 liefern, alles andere ist bis dahin zweitrangig.

gravitationsfeld
2018-11-28, 18:59:06
Ich würd davon ausgehen, dass für den HPC-Kram die bisherige Architektur auch auf dem dafür zugehörigen Müll landen wird. War bis 2020 genug Zeit für eine komplette Neuentwicklung.
Das waere interessant, aber irgendwie glaub ich nicht daran.

fondness
2018-11-28, 20:15:51
Ich finde es witzig, wie sich jeder hier seine Zukunft zurecht "träumt". Interessanterweise passt diese "Träumerei" ganz gut zur allgemeinen "Einstellung" hier im Forum. :D

Wir werden sehen wer 2020 Recht behält^^

BlacKi
2018-11-28, 23:15:00
ich hab da keine erwartungen was die performance angeht. weder pro noch kontra.

wichtig wäre es async auf den apu/cpus anzubieten. dann könnte man alle monitore anschließen, jeweils mit freesync und gsync, frei nach schnauze wenn man intel und nv karte im system hat.

aufkrawall
2018-11-28, 23:21:49
Kostet leider Performance, weils Copy nicht gratis gibt.

gravitationsfeld
2018-11-28, 23:36:54
Die GPU ist Stand 2013 in den CPUs, Vergleiche mit Intels veralteteter iGPU solltest du besser nicht ziehen.
Das ist falsch, Intel hat seit 2013 Gen7.5, Gen8, Gen9, Gen9.5 und Gen10 GPU-Architekturen veroeffentlicht. NVIDIA und AMD verbessern auch nur inkrementel.

iuno
2018-11-29, 00:02:39
Kostet leider Performance, weils Copy nicht gratis gibt.
Gibt's bis dahin gibts nicht PCIe4? Ob es dann noch eine Rolle spielt?
So oder so, es muss ja nicht besser sein als G-Sync, sondern nur besser als V-Sync oder tearing. Und das ist sicherlich der Fall.

aufkrawall
2018-11-29, 00:09:31
Gibt's bis dahin gibts nicht PCIe4? Ob es dann noch eine Rolle spielt?

Ich befürchte, der Kopiervorgang von der Grafikkarte selbst ist auch ohne PCIe-Limitierung alles andere als gratis.
Zumindest Copyback in den RAM bei HW-Videodecodierung ist ziemlich teuer. Seit Win 10 1803 kannst du ja auch einfach für jede Anwendung die zu rendernde GPU festlegen, und dadurch ist schon Scrollen im Browser mit meiner Skylake-IGP für WQHD Overkill bei Output über die dGPU.

SKYNET
2018-11-29, 00:51:02
Ich sehe eher AMD in der Not Heldentaten abzuliefern, wenn sie nicht ordentliche Probleme mit Intel haben möchten.


solange AMD und NV so ziemlich alle wichtigen patente halten, ist Intel eher auf deren goodwill angewiesen... würd ich mal dreist behaupten.

Loeschzwerg
2018-11-29, 07:02:11
Lizenzabkommen und fertig. Firmen denken da komplett anders als so manche Fans...

Pirx
2018-11-29, 07:40:12
Intel hat doch dauerhaften Zugriff auf alle nV-Patente bis zum Auslaufen deren Vertrages (afaik 03/2017)

BoMbY
2018-11-29, 09:37:46
solange AMD und NV so ziemlich alle wichtigen patente halten, ist Intel eher auf deren goodwill angewiesen... würd ich mal dreist behaupten.

Nein, immer noch nicht. Das Cross Patent License Agreement von Intel und AMD ist nicht auf CPUs beschränkt.

SKYNET
2018-11-29, 10:16:47
Lizenzabkommen und fertig. Firmen denken da komplett anders als so manche Fans...


dazu müsste intel aber was haben das für NV/AMD interessant wäre.... und im grafikbereich haben sie da warte... achja, nix :ulol:

SKYNET
2018-11-29, 10:19:41
Nein, immer noch nicht. Das Cross Patent License Agreement von Intel und AMD ist nicht auf CPUs beschränkt.


darum läuft die graka sparte ja auch als seperat "radeon technologies group" ;)

somit kann intel da mal garnix ;D

BoMbY
2018-11-29, 11:44:00
darum läuft die graka sparte ja auch als seperat "radeon technologies group" ;)

Das gilt auch für alle AMD und Intel "Subsidiaries".

SKYNET
2018-11-29, 15:17:32
Das gilt auch für alle AMD und Intel "Subsidiaries".


sicher? :confused:

gmb
2018-11-29, 15:44:39
Das ist falsch, Intel hat seit 2013 Gen7.5, Gen8, Gen9, Gen9.5 und Gen10 GPU-Architekturen veroeffentlicht. NVIDIA und AMD verbessern auch nur inkrementel.


Das ist nicht falsch. Skylake mit Gen9 hatte seinen tapeout bereits im Jahre 2013, das Design ist sehr alt. Alle neuen CPUs sind darauf basierend. Gen 9.5 ist irrelevant, weil die GPU identisch ist, aktualisiert wurde nur die Media Einheit, bringt dir in Spielen nichts. Gen10 ist genauso irrelevant bis heute, es gibt bekanntlich keine CPU, die man sich mit Grafik anschauen könnte. Was du so gerne bewertest, ist Intels Stand von 2013. Da wäre ich sehr vorsichtig das auf eine GPU im Jahre 2020 zu übertragen. Intel ist intern über die Jahre nicht stehen geblieben ist. Gen10 und Gen11 wurden entwickelt und Gen12 für die erste dedizierte hat seinen tapeout noch vor sich.

BoMbY
2018-11-29, 17:44:37
sicher? :confused:

Ja: https://www.sec.gov/Archives/edgar/data/2488/000119312509236705/dex102.htm

SKYNET
2018-11-29, 18:26:12
Ja: https://www.sec.gov/Archives/edgar/data/2488/000119312509236705/dex102.htm


ihhhhh :eek:

und merci :smile:

gravitationsfeld
2018-11-29, 19:35:59
Gen10 ist genauso irrelevant bis heute, es gibt bekanntlich keine CPU, die man sich mit Grafik anschauen könnte.
Zuerst nimmst du das Tape Out als Massstab fuer die Zeitlinie, aber dann ist ein Design die schon lange ihr Tape Out hatte irrelevant. Ergibt Sinn.

gmb
2018-11-29, 20:33:42
Zuerst nimmst du das Tape Out als Massstab fuer die Zeitlinie, aber dann ist ein Design die schon lange ihr Tape Out hatte irrelevant. Ergibt Sinn.


Du kapierst es nicht oder willst es nicht kapieren. Ein GPU, die im Markt nicht existiert, kannst du schlecht austesten. Du redest selber von Hardware!


Die Hardware ist immer noch absoluter Muell.


Alles was du bewertest, ist die Gen9. Und das ist ein Design aus dem Jahre 2013.

gravitationsfeld
2018-11-29, 22:06:48
Sie ist halt auch Muell fuer ihr Alter. AMDs GCN ist auch so alt und nicht so grottig.

Wie gesagt, sie koennen mich gerne ueberaschen, aber bisher haben sie sich nie mit Ruhm bekleckert und das seit bald was? 20 Jahren?

BoMbY
2018-11-29, 22:23:58
Redest Du jetzt vom ISA oder der Implementierung?

gravitationsfeld
2018-11-29, 22:33:10
GCN hat sich auch von der Implementierung seither nicht viel getan. Vega hat die Pipeline laenger gemacht um hoehere Taktraten zu erreichen.

DrumDub
2018-11-30, 13:36:30
Sie ist halt auch Muell fuer ihr Alter. AMDs GCN ist auch so alt und nicht so grottig.

Wie gesagt, sie koennen mich gerne ueberaschen, aber bisher haben sie sich nie mit Ruhm bekleckert und das seit bald was? 20 Jahren? es sind 20 jahre ... ;D;D;D

The Intel740, or i740 (codenamed Auburn), is a 350 nm graphics processing unit using an AGP interface released by Intel in 1998. Intel was hoping to use the i740 to popularize the AGP port, while most graphics vendors were still using PCI. Released with enormous fanfare, the i740 proved to have disappointing real-world performance[1], and sank from view after only a few months on the market. https://en.wikipedia.org/wiki/Intel740

Loeschzwerg
2018-11-30, 20:06:38
Ari Rauch beantwortet HotHardware ein paar Fragen zur neuen GPU Strategie:
https://hothardware.com/reviews/intel-answers-gpu-questions

So, what do we know today about Intel’s upcoming discrete GPU plans that we didn’t know yesterday? First and foremost things are obviously still in a state of flux and Intel wants input from the community. If there are specific asks that you feel Intel must deliver on to gain your interest, be sure to comment here; Intel is listening and has plans to further engage with the community moving forward. We also know that Intel’s upcoming GPU is not simply a scaled-up version of its existing graphics IP and that the design approach is essentially the opposite of Larrabee’s. Intel didn’t specifically state it has multi-GPU support planned, but it seems like that is at least a possibility at this point, based on the Visual Technologies team's comments. Intel’s focus will be on industry standard APIs, but differentiating features are in the works as well that will likely require some proprietary framework. What those features are, we are not sure yet. Based on the teaser video and Intel’s interest in the community’s take on axial vs. blower-style fans, for example, it’s also safe to assume that desktop add-in cards are planned. The talk of enabling new, and interesting form factors, however, also hints toward hybrid solutions similar to Kaby Lake G. Eventually, both solutions are most likely to appear.

Although we were optimistic that Intel would disclose some juicy details regarding its upcoming discrete GPU, it’s still too early to expect any product-specific scoops just yet. We hope to stay engaged with Intel throughout the coming year though, and will bring you any and all news, as soon as we get details that we can pass on.

Herr Doktor Klöbner
2018-12-01, 11:42:42
Was ich ganz witzig finde ist, das Intel wären Sie ein paar Jahre früher in diesen Markt eingestiegen TSMC und co. 2-3 Jahre voraus gewesen wären was die Fertigungstechnik angeht und mit einem einfach nur soliden Erstling trotzdem über mehr Takt, weniger Verbrauch oder niedrigeren Kosten hätten punkten können.

Wie es aktuell aussieht würde ich nicht mal davon ausgehen das Intel seine GPUs selbst fertigt, wenn doch ohne jeden Vorsprung vor TSMC, die haben mindestens gleich gezogen.

Pirx
2018-12-03, 11:20:15
Ja: https://www.sec.gov/Archives/edgar/data/2488/000119312509236705/dex102.htm
Gilt das dann auch für Intels EMIB?

BoMbY
2018-12-03, 13:50:56
Vermutlich ja, sofern Intel, und nur Intel, Patente darauf hat. Abgesehen davon hat AMD da immer noch eigene Patente die weiterführend sind: "Bridge Chiplets" (http://www.freepatentsonline.com/y2018/0102338.html).

crux2005
2018-12-11, 03:48:58
Damien Triolet hat auch zu Intel gewechselt:
https://www.techpowerup.com/250509/ex-hardware-fr-gpu-editor-damien-triolet-jumps-ship-from-amd-rtg-to-intel

gravitationsfeld
2018-12-11, 18:17:14
Meh, Marketing.

=Floi=
2018-12-11, 18:25:45
ich verstehe nicht, wie so eine firma wie intel nicht selbst genug "talente" dort hinsetzt. Das ist bei denen ja ein kompletter witz.

AffenJack
2018-12-11, 19:04:41
Meh, Marketing.

Marketing ist immer das, wovon man am ehesten hört, weil die Leute in der Öffentlichkeit sind. Du kannst davon ausgehen, dass Intel genauso einen haufen Ingenieure von AMD und bestimmt auch Nvidia abgeworben hat.

amdfanuwe
2018-12-11, 19:47:12
ich verstehe nicht, wie so eine firma wie intel nicht selbst genug "talente" dort hinsetzt. Das ist bei denen ja ein kompletter witz.
Da wird ne neue Abteilung aufgemacht. Die vorhandenen Talente haben in ihrer Abteilung genug zu tun, also braucht es neue Leute. Ist doch immer das gleiche.

mocad_tom
2018-12-11, 21:10:04
Raja Koduri heute bei einem Briefing in Robert Noyce Haus.

Aber NDA bis morgen.

https://twitter.com/LegitReviews/status/1072568257327087616

Ailuros
2018-12-12, 06:24:43
Was ich ganz witzig finde ist, das Intel wären Sie ein paar Jahre früher in diesen Markt eingestiegen TSMC und co. 2-3 Jahre voraus gewesen wären was die Fertigungstechnik angeht und mit einem einfach nur soliden Erstling trotzdem über mehr Takt, weniger Verbrauch oder niedrigeren Kosten hätten punkten können.

Wie es aktuell aussieht würde ich nicht mal davon ausgehen das Intel seine GPUs selbst fertigt, wenn doch ohne jeden Vorsprung vor TSMC, die haben mindestens gleich gezogen.

Intel's Prozesse sind auf CPUs angepasst.

ich verstehe nicht, wie so eine firma wie intel nicht selbst genug "talente" dort hinsetzt. Das ist bei denen ja ein kompletter witz.

Selbst wenn, hat Intel stets das Problem dass vieles dank uebertriebener interner Buerokratie einfach (grundlos) kompliziert wird. Falls sie in diesem Fall ein team so viel Autonomie geschenkt haben wie sie es auch brauchen, dann gibt es auch Hoffnung dass wir angenehm ueberrascht werden. In der Vergangenheit glaubte ich zuerst dass das damalige Larabee team getrennte resources vom GenX team hat, wobei es genau das Gegenteil war. Selbst wenn LRB keine Banane gewesen waere, haette die Unterstuetzung dafuer so oder so gehinkt.

Marketing ist immer das, wovon man am ehesten hört, weil die Leute in der Öffentlichkeit sind. Du kannst davon ausgehen, dass Intel genauso einen haufen Ingenieure von AMD und bestimmt auch Nvidia abgeworben hat.

Da er auf den newsblurb fuer Damien Triolet antwortete, hat er im Grund schon recht. Damien war zwar fuer mich einer der besten GPU reviewers dort draussen, aber als engineering Talent wuerde ich ihn nicht beschreiben. Sonst hast Du zwar recht, aber Quantitaet geht nicht ueber Qualitaet wenn es zu engineers kommt und zumindest bei NV verlassen hochtalentierte key hw engineers eher selten das Haus. Ich weiss dass ich womoeglich dafuer gelyncht werde, aber Herren wie Koduri sind zwar gut ein team zu organisieren, aber bei AMD hat er auch keinen Entwicklungs-Fruehling gebracht weil es eben leider an resources fehlte. Bei Intel war in der Vergangenheit stets das Problem dass sie eine beschissene Philosophie bzw. Einstellung fuer GPUs generell hatten und obwohl sie fuer Larabee als Beispiel Unmengen an resources aufgewiesen hatten, half es gar nichts wenn die Vision dafuer einfach beschissen war.

Soll jetzt nicht heissen dass Intel diesmal wieder nichts schaffen wird; sie muessen es diesmal schaffen sonst rutscht ihnen QCOM tatsaechlich irgendwann den Buckel runter und dort hat den damaligen Adreno GPU-Saustall in Null komma nichts Eric Demers aufgeraeumt; als er zu QCOM kam hatten sie eine grottig hw verbuggte DX11 Architektur in der Hand und verhandelten sogar mit dritten Firmen fuer GPU IP als Rettungsplanke. QCOM gab Eric die Freiheit das zu machen was ihr GPU engineering team brauchte und der Erfolg hat sich auch bewiesen.

BlackBirdSR
2018-12-12, 08:47:11
ich verstehe nicht, wie so eine firma wie intel nicht selbst genug "talente" dort hinsetzt. Das ist bei denen ja ein kompletter witz.

Man muss nur wissen, wie ein Großkonzern funktioniert, schon sind solche Dinge absolut verständlich.

Persönliche Interessen und gekränktes Ego kombiniert mit ständigen Strategie Shifts durch Leute, die nur sehr gefiltert Infos bekommen, sind einfach der Alltag.

Man sollte sich eher wundern, dass am Ende noch ein Produkt verkauft wird. Ist aber egal welcher Großkonzern. Ob Elektronik oder Automobil etc..

robbitop
2018-12-12, 09:03:00
Kann ich aus eigener beruflichen Erfahrung bestätigen. Riesen Unterschied was machbar gewesen wäre und was ungesetzt wurde. Genau aus den von bbsr angesprochenen Gründen.

Ich vermute mal, dass daran auch AMD krankte und Lisa und ihr Team gemau daran was getan haben. Das Talent war da. Es musste nur entsprechend eingesetzt werden (genug Autonomoe, eine gute und akzeptierte und konstante Strategie).
Daran sieht man wie wichtig gute Strukturen und Führung sind. Kranken leider viele Firmen dran.

BlacKi
2018-12-12, 16:50:17
client, enthusiast und midrange deutet wohl auf consumer varianten hin?
https://videocardz.com/79325/arctic-sound-becomes-intel-xe

oldgamer
2018-12-12, 16:52:35
client, enthusiast und midrange deutet wohl auf consumer varianten hin?
https://videocardz.com/79325/arctic-sound-becomes-intel-xe

Intel further confirmed that Xe architecture will span across the whole market, including integrated, data center and consumer products.
Noch deutlich geht´s eigentlich kaum, oder?

Dural
2018-12-12, 17:03:46
Das wird sicher praktisch eine halbe AMD GPU sein, dank Patent Abkommen von Intel und AMD und den ex AMD Mitarbeiter.

Troyan
2018-12-12, 17:35:26
Die neue iGPU sieht gut. Unterstützt auch Variable Rate Shading. Bringt Adaptive Sync mit. Alles ein Vorgeschmack auf die Desktop-Variante.

Und die Leute meinen, dass man Intel nicht ernst nehmen dürfte. Ha.

BoMbY
2018-12-12, 17:38:57
deutet wohl auf consumer varianten hin?

Also genau das was Intel seit Tag 1 gesagt hat? Sachen gibt's ...

Menace
2018-12-12, 17:41:29
Und die Leute meinen, dass man Intel nicht ernst nehmen dürfte. Ha.

Welche Leute meinen das? :confused:

=Floi=
2018-12-12, 17:54:28
Bevor das ding nicht einwandfrei bei den kunden läuft würde ich da auch keinen € drauf setzen.
Der treiber macht so viel aus und ich bezweifle, dass das erste produkt hier perfekt sein wird.
Schaut euch vega an. Selbst bei NV ist der treiber dank der komplexizität spürbar schlechter geworden.

Es gibt noch so viele hürden und das ist nunmal keine cpu.

gmb
2018-12-12, 17:57:05
Die neue iGPU sieht gut. Unterstützt auch Variable Rate Shading. Bringt Adaptive Sync mit. Alles ein Vorgeschmack auf die Desktop-Variante.

Und die Leute meinen, dass man Intel nicht ernst nehmen dürfte. Ha.


Wenn das überhaupt ein Vorgeschmack auf die dGPU ist. Gen11 ist seit Ewigkeiten fertig und Intel spricht von "brand new architecture" bei der Gen12 bzw. jetzt Xe.

Loeschzwerg
2018-12-13, 06:35:59
Gen11 GT2 bietet also ca. die Rohleistung von Gen9 GT4e (72EUs, 576 Shader), passt. Damit lässt sich durchaus etwas anfangen.

BlacKi
2018-12-13, 12:02:31
Also genau das was Intel seit Tag 1 gesagt hat? Sachen gibt's ...
Noch deutlich geht´s eigentlich kaum, oder?
das hab ich nur in bezug auf die verneinung einnzelner hier erneut herausgestellt.

MSABK
2018-12-13, 13:16:28
Gen11 GT2 bietet also ca. die Rohleistung von Gen9 GT4e (72EUs, 576 Shader), passt. Damit lässt sich durchaus etwas anfangen.

Limitiert da nicht wie immer der Arbeitsspeicher? Das wird sich ja auch mit Gen11 nicht ändern.

Loeschzwerg
2018-12-13, 13:20:42
Wie sehr der eDRAM abgeht wird sich zeigen, aber du hast natürlich recht, die Bandbreite wird mal mehr mal weniger ein limitierender Faktor sein. Ist bei RavenRidge ja auch nicht anders und trotzdem lässt sich einiges damit anstellen :)

y33H@
2018-12-13, 14:00:07
Bei mir steht 2020 auf Arbeit beim Thinkpad der Wechsel von Skylake auf Ice Lake an, bin schon hibbelig ^^ 4C mit Sunny Cove und Gen11 @ 64EU statt 2C mit Skylake und Gen9 @ 24EU ... vermutlich auch LPDDR4 dann.

HOT
2018-12-13, 16:43:39
Noch deutlich geht´s eigentlich kaum, oder?
Jo, ich freu mich, dass Intel jetzt als ernstzunehmende Kraft in den Grafikkartenmarkt kommen will. Das wird auf jeden Fall ne angenehme Abwechslung - und das auch noch mit "Freesync", besser gehts nicht.

Ailuros
2018-12-14, 11:08:08
https://www.anandtech.com/show/13699/intel-architecture-day-2018-core-future-hybrid-x86/7

"Foveros" mit einem big.LITTLE artigem CPU config. Am Rand "foveros" kann sowohl "awesome" als auch "fearful" bedeuten.

Intel actually says that the reason why this product came about is because a customer asked for a product of about this performance but with a 2 mW standby power state. In order to do this, Intel created and enhanced a number of technologies inside the company. The final product is apparently ideal for the customer, however the chip will also be made available for other OEMs.

(Ist zwar hier auch nicht der richtige thread....ich bin nur zu faul den demenstrechenden Intel SoC thread auszugraben).

y33H@
2018-12-15, 00:55:15
Lake Field mit 1x Sunny + 4x Tremont?

Blediator16
2019-01-14, 20:43:53
AMDs abgewanderte Marketing Abteilung macht nun nichssagende Videos bei Intel.

https://twitter.com/IntelGraphics/status/1084888003011637249

Ich denke noch 50 andere Ankündigungen zur Ankündigung, dann kann man evtl. mit einer Grafikkarte rechnen.

gmb
2019-01-15, 01:49:40
Es geht dort ums Control Panel, das ist nicht auf die dedizierte beschränkt. Intel kündigt ein neues Control Panel an, sehr interessant. Ich bin mal gespannt, wie das aussehen wird.

Mayhem
2019-01-15, 02:20:47
Ernsthaft?
Intel GPU Control Panel?
Warum?
Gab's Complaints bzgl. des Alten?
Hat da drin jemand schonmal was umgestellt?
Wenn ja, was?
Die Werbung ist doch übertrieben!?!

Loeschzwerg
2019-01-15, 06:34:05
Ernsthaft?
Intel GPU Control Panel?
Warum?


Naja, die Konkurrenz hat entsprechende Lösungen und man möchte ja zukünftig verstärkt mitmischen. Frage beantwortet :D

Mayhem
2019-01-16, 11:47:06
Aus dem Kontext gerissen macht Deine Antwort Sinn. Mein Post enthielt aber noch mehr Fragen, die alle beantwortet werden wollen... :wink:

Loeschzwerg
2019-01-16, 12:35:15
Naja, das aktuelle Control Panel hat einen absoluten Mindestumfang an Einstellungen, verglichen dazu bieten NV/AMD viel mehr Möglichkeiten.
Ich hätte z.B. gerne die Möglichkeit die IGP beim Takt maximal gegenüber der CPU zu bevorzugen (Power Budget) und auch mehr spezifische Einstellungen für Spiele zu hinterlegen.

Einstellungen für den Bildschirm/TV (Custom Reso. und Farbe) passe ich meistens über das Intel Control Panel an, da bietet Windows selbst zu wenig.

Die Werbung... ja mei, wie sinnvoll waren z.B. die "Fixer" Videos von AMD? So oder so, braucht man nichts darauf geben, da hat die Marketing Abteilung scheinbar zu viel Geld.

Mayhem
2019-01-16, 12:49:04
Ok, Du holst sicher das Letzte aus der iGPU raus, aber wieviele der anderen 999,x Mio iGPU User werden das auch so handhaben? Darum ging's doch. Wer braucht da eine Änderung?
Wer iGPU fährt, hängt doch nicht im Control Panel ab. Besser wär's wenn sie mal ihre Treiber allgemein fixen und die Spiele-/Appkompatibilität maximieren/optimieren würden.
Und die Werbung sagt doch auch eher das Gegenteil aus? Weniger Einstellmöglichkeiten?
Und wenn die die dGPUs kommen, werden es sicher keine 1Mrd User sein :D

Opprobrium
2019-01-16, 12:50:38
Aber durch die Werbung signalisiert Intel, dass sie sich auf echte GPUs vorbereiten

Mayhem
2019-01-16, 12:55:42
Ich hätte lieber einen Trailer gesehen mit:
- We optimized our driver: The result is up to 20% more FPS in Games!
- Compatibility: We improved our app compatibility. 100 apps more supported apps!
- Bug-fixes: Now you can connect every Monitor Setup without issues, black flickering etc.
- More Power Saving Options: You can now decide where you power budget goes to.

Mayhem
2019-01-16, 12:58:11
Aber durch die Werbung signalisiert Intel, dass sie sich auf echte GPUs vorbereiten
Für mich signalisiert das eher, dass Intel ein paar Clowns im Marketing sitzen haben

Loeschzwerg
2019-01-16, 13:09:33
Die Treibermenüs von NV/AMD werden auch nur von einem kleinen Prozentsatz genutzt. Wenn alles läuft schaut da genauso keiner rein.


Und die Werbung sagt doch auch eher das Gegenteil aus? Weniger Einstellmöglichkeiten?

Einheitliches und intuitives Look&Feel sowie mitgelieferte Profile für Spiele. Nicht "weniger Einstellungsmöglichkeiten".

gmb
2019-01-16, 13:11:50
Aus dem Kontext gerissen macht Deine Antwort Sinn. Mein Post enthielt aber noch mehr Fragen, die alle beantwortet werden wollen... :wink:


Es empfiehlt sich bei den Videoeinstellungen alles auf app default zu setzen, ansonsten sind einige "Verbesserer" standardmäßig aktiv wie Schärfe usw. AF habe ich vor 2-3 Jahr ab und zu eingeschaltet. Beim Asus UX461UN war die refresh rate auf 30HZ gestellt (soll Strom sparen), habe ich auf 60 HZ gestellt und für mein Haupt Monitor nutze ich custom Kontrast und Helligkeit, welche ich im Control Panel einstelle.

Übrigens fand ich das Vorgänger Design besser als das aktuelle. Hier wäre eine Verbesserung wünschenswert.

Mayhem
2019-01-16, 13:24:34
Die Treibermenüs von NV/AMD werden auch nur von einem kleinen Prozentsatz genutzt. Wenn alles läuft schaut da genauso keiner rein.

Da gibts aber doch 10 mal mehr sinnvolle Sachen einzustellen:
-PowerBudget
-ASync Zeugs
-VirtualRes
-MultiMonitor-Setups mit Fokus auf Gaming (Rennspiele?)
-VR Zeugs
-Streaming, Recording
-AMD Chill
-Physics
-Audio
-Debug Zeugs
-Multi-GPU

und last but not least
- Spiele/App Profile


Einheitliches und intuitives Look&Feel sowie mitgelieferte Profile für Spiele. Nicht "weniger Einstellungsmöglichkeiten".
Ich wiederhol mich vllt. Gab es da vorher ein Problem damit? Ich müsste mal wieder reinschauen. Ich weiss, dass das AMD Control-Panel vor paar Jahren ne Katastrophe war. Allein schon vom Start und der .NET Abhängigkeit.
Aber wir reden hier über Intel GPUs. Die haben ganz andere Probleme als ihr Control Panel. Das mit den Profilen versteh ich auch nicht. Die meisten Sachen sind mit iGPU selbst auf Ultralow nicht spielbar. Brauch ich da Profile für Fifa15?
Die sollen lieber die Shader pro Game optimieren/kompatibel machen, wie das NV und AMD auch machen. Das wär sinnvoll.

Aber vielleicht überseh ich auch was?

Loeschzwerg
2019-01-16, 13:43:38
Da gibts aber doch 10 mal mehr sinnvolle Sachen einzustellen:


Und wie viele nutzen diese Einstellungen/Features? Wenn ich mir meine ganzen Zocker in der Bekanntschaft so ansehe... die interessiert das genauso wenig :D
Da wird auch der Treiber nicht aktualisiert, außer es läuft etwas nicht wie gewollt. DAS sind die ganz normalen Nutzer.

Klar braucht es für aktuelle IGPs jetzt nicht zwingend eine Überarbeitung der GUI, aber die Frage lautet hier nicht "Warum?" sondern "Warum nicht?".
Eine neue GUI erst mit Gen11 wäre schlechtes Marketing und auf gesammeltes Feedback (sowohl zu Gen11 als auch zur GUI) lässt sich schlechter reagieren. Die Sache zu entzerren und entsprechend den Grundstein im Vorfeld zu legen ist wesentlich sinnvoller.

Welche Probleme eigentlich? Für Games ala Dota 2, LoL, Rocket League... reicht Gen9 GT2 durchaus aus. Optimierungen für Spiele gibt es mit der Einführung von Gen9 generell regelmäßig.

Opprobrium
2019-01-16, 13:51:18
Für mich signalisiert das eher, dass Intel ein paar Clowns im Marketing sitzen haben

Alle Marketingleute sind Clowns. Jede Wahrnehmung ist positiv. Dich scheints jedenfalls zu beschäftigen ;)

Mayhem
2019-01-16, 13:58:45
Und wie viele nutzen diese Einstellungen/Features? Wenn ich mir meine ganzen Zocker in der Bekanntschaft so ansehe... die interessiert das genauso wenig :D
Da wird auch der Treiber nicht aktualisiert, außer es läuft etwas nicht wie gewollt. DAS sind die ganz normalen Nutzer.

Also ich würde vermuten der Prozentsatz ist sicher höher als bei Intel. Z.b. gerade gestern und heute sind sicher viele Leute rein um G-Sync für ihren FreeSync Monitor zu aktivieren. Bei mir im Umfeld gerade 3 von 5 Leuten. Sonst gäbe es die Features auch nicht. Ist auch ganz natürlich. Wenn ich spielen will hol' ich mir NV oder AMD.
Aber würde vorschlagen wir lassen das.


Klar braucht es für aktuelle IGPs jetzt nicht zwingend eine Überarbeitung der GUI, aber die Frage lautet hier nicht "Warum?" sondern "Warum nicht?".

Resourcen (siehe meine Vorschläge) + Vermeidung der Einführung zusätzlicher Bugs. Wenn es Probleme gab, könnte ich es nachvollziehen. Siehe meine Ausführungen zu AMDs ControlPanel.


Eine neue GUI erst mit Gen11 wäre schlechtes Marketing und auf gesammeltes Feedback (sowohl zu Gen11 als auch zur GUI) lässt sich schlechter reagieren. Die Sache zu entzerren und entsprechend den Grundstein im Vorfeld zu legen ist wesentlich sinnvoller.

Das könnte ich als Grund einsehen. Aber: Die werden für die dGPU das Ding eh dann mehrmals umbauen müssen (weil sie dann viel mehr Features bieten müssen um mit NV und AMD mitzuhalten) bis es passt.


Welche Probleme eigentlich? Für Games ala Dota 2, LoL, Rocket League... reicht Gen9 GT2 durchaus aus.
Ich sagte ja schon. Für 3+ Jahre alte Spiele (Fifa 15). Brauch man dafür noch Profile?

Wie auch immer. Ich habe ja im Post weiter oben geschrieben, was ICH von Intel sehen möchte. Ein neues Control Panel (wann auch immer es kommen mag und wieviele Mrd Menschen darauf gewartet haben) steht da ganz unten. Ich bin mal raus hier und schreibe wieder was wenn es dann da ist. :smile:

Mayhem
2019-01-16, 14:05:26
Wahrnehmung ist positiv. Dich scheints jedenfalls zu beschäftigen ;)
Auf jeden Fall schon "zu lange" :wink:

Loeschzwerg
2019-01-16, 17:09:49
Klar ist der Prozentsatz höher, da gibt es auch mehr Enthusiasten und im Falle "G-Sync compatible" triggern die News weltweit zusätzlich.
Quasi anzudeuten keiner würde das Intel Treibermenü nutzen ist nur ebenfalls sehr zweifelhaft, auch weil sich mit der Einführung von Gen9 (aber auch schon teilweise mit Gen8) die Unterstützung für Spiele deutlich gebessert hat (es laufen auch aktuelle AAA Titel).

Der Punkt mit den Ressourcen zieht nicht wirklich, dafür gibt es ja unterschiedliche Teilbereiche in der SW-Entwicklung. Ordentlich umorganisiert hat Intel die Teams ebenfalls.
Die GUI wurde erst kürzlich aus dem Treiberpaket ausgegliedert, damit erfolgt die Verteilung neuer Versionen fast völlig unabhängig voneinander. Wenn man jetzt eine neue, universelle Basis baut, warum sollte es dann notwendig sein die GUI komplett umzubauen sobald die dGPU ansteht?! Ist doch völlig unlogisch und tut AMD doch genauso wenig.

Ich begreife absolut nicht was dein Problem ist :confused: Release-Notes liefert Intel zu jeder Version, inkl. Highlights (neue Spiele XYZ laufen jetzt optimiert) und Bugfixes.

Ob sich das dann letztendlich ausgeht, können wir doch entspannt abwarten.

Mayhem
2019-01-16, 19:17:40
Absolut. Ich kann halt gmbs Enthusiasmus über ein neues CP leider nicht teilen. Bzgl. SW-dev bei Intel bin ich vorbelastet, weil sie den BlackScreen Bug in 2 Jahren nicht gefixt bekommen haben und dann die User anbettelten ihre PCs zur Repro einzuschicken. Soviel zu professionellen Dev-Prozessen dort.

gmb
2019-01-17, 00:47:47
Absolut. Ich kann halt gmbs Enthusiasmus über ein neues CP leider nicht teilen.


Du wolltest eine Antwort auf deine Frage, du hast sie bekommen. Warum gehst du darauf nicht ein? War wohl doch nur eine Fangfrage, was ich mir natürlich schon gedacht habe. Übrigens meckerst du nur rum, willst aber gleichzeitig kein besseres Control Panel, das beißt sich.



Bzgl. SW-dev bei Intel bin ich vorbelastet, weil sie den BlackScreen Bug in 2 Jahren nicht gefixt bekommen haben und dann die User anbettelten ihre PCs zur Repro einzuschicken. Soviel zu professionellen Dev-Prozessen dort.


Ja das erklärt einiges, dein Stil ist sehr voreingenommen. Mit solchen Leuten kann man nicht normal diskutieren, du verstehst davon viel zu wenig.

Calypso
2019-01-17, 09:48:05
Du wolltest eine Antwort auf deine Frage, du hast sie bekommen. Warum gehst du darauf nicht ein? War wohl doch nur eine Fangfrage, was ich mir natürlich schon gedacht habe. Übrigens meckerst du nur rum, willst aber gleichzeitig kein besseres Control Panel, das beißt sich.





Ja das erklärt einiges, dein Stil ist sehr voreingenommen. Mit solchen Leuten kann man nicht normal diskutieren, du verstehst davon viel zu wenig.

stimmt, am besten mit Leuten die Probleme haben, gar nicht erst reden.... :rolleyes:

Mayhem
2019-01-17, 11:23:03
Du wolltest eine Antwort auf deine Frage, du hast sie bekommen. Warum gehst du darauf nicht ein? War wohl doch nur eine Fangfrage, was ich mir natürlich schon gedacht habe. Übrigens meckerst du nur rum, willst aber gleichzeitig kein besseres Control Panel, das beißt sich.
Nee, das hast du falsch verstanden. Ich meinte Deinen Enthusiasmus vorne dran... auf den Trailer. Daher mein Initialpost. Deine Erklärungen habe ich wohlwollend zur Kenntnis genommen! :smile:


Ja das erklärt einiges, dein Stil ist sehr voreingenommen. Mit solchen Leuten kann man nicht normal diskutieren, du verstehst davon viel zu wenig.
Nee, auch hier... es ging mir nur um Loeschzwergs Ausführungen bzgl. SW-Developmentprozessen. Ich wollte da nur eine kleine Anekdote einstreuen, dass professionelle Dev-Prozesse, wie die Auftrennung in verschiedene unabhängige Teilbereiche, in der Theorie sich zwar super anhören, in der Praxis aber leider nicht immer reibungslos funktionieren. Meiner bisherigen Erfahrung nach hat sich Intel in Sachen Software nicht mit Ruhm bekleckert.
Ich bevorzuge generell erstmal den Ansatz: Erst bugfrei, dann Features+EyeCandy.

pixeljetstream
2019-01-22, 22:34:20
Diskussionsfortführung aus nem anderen thread, wo ich meinte dass Intel bei RT etwas mehr wagen könnte, relativ gesehen.


Bei intel stelle ich mir aber die frage, ob die RT wollen und das transistorbudget nicht voll auf reicheneinheiten legen. Mit RT geht sicherlich die hälfte für grafikausgabe drauf.

Meine Theorie wäre dass wenn ich als Firma wieder wo größer neu einsteige und es da zufällig einen Themenbereich gibt der neu ist, dann lohnt es sich hier im Vergleich zum anderen Konkurrenten der auch "überrascht" wurde zu punkten.

Realistisch gesehen ist high-end etwas unrealistisch, Mainstream ist am ehesten machbar und würde die meisten Marktanteile liefern. AMD war in ihrem Zyklus etwas knapp bei RT, Intel hat mehr Zeit zu reagieren.
Oder anders gesagt wenn ich in allen Bereichen der Konkurrenz hinterher bin, vielleicht den Bereich wählen wo es die Konkurrenz auch ist.

Das muss nicht heißen das man viel Fläche opfert, nur das man konsequent dieses neue Anwendungsgebiet im Hinterkopf beim Design hat.

Timbaloo
2019-01-22, 23:04:31
Ich sehe es eigentlich wie du pixel, aber auf der anderen Seite darf man nicht vergessen, dass mobile Designs halt auch ein Punkt sind wo man (abseits von diskreten GPUs) deutlich besser werden muss. Und da dürfte RT mal so überhaupt keine Rolle spielen. Sicher kann man beides unter einen Hut bekommen (-> NV) aber wo würde ich an intels Stelle den Hauptfokus hinsichtlich R&D drauf haben? Ich weiss es nicht.

pixeljetstream
2019-01-22, 23:13:02
Ja stimmt mobile hab ich nicht so bedacht. Naja man wird ja sehen was es wird ;)

=Floi=
2019-01-23, 00:48:54
Diskussionsfortführung aus nem anderen thread, wo ich meinte dass Intel bei RT etwas mehr wagen könnte, relativ gesehen.



Meine Theorie wäre dass wenn ich als Firma wieder wo größer neu einsteige und es da zufällig einen Themenbereich gibt der neu ist, dann lohnt es sich hier im Vergleich zum anderen Konkurrenten der auch "überrascht" wurde zu punkten.

Realistisch gesehen ist high-end etwas unrealistisch, Mainstream ist am ehesten machbar und würde die meisten Marktanteile liefern. AMD war in ihrem Zyklus etwas knapp bei RT, Intel hat mehr Zeit zu reagieren.
Oder anders gesagt wenn ich in allen Bereichen der Konkurrenz hinterher bin, vielleicht den Bereich wählen wo es die Konkurrenz auch ist.

Das muss nicht heißen das man viel Fläche opfert, nur das man konsequent dieses neue Anwendungsgebiet im Hinterkopf beim Design hat.


Ok, an mainstream dachte ich nicht. Damit hast du sicherlich ein gutes argument. Aber alleine die 15TF über ca. 2ghz sind schon ne hausnummer. Eigentlich bräuchte intel da schon mehr.
Ich sehe in intel einfach eine große unflexible firma, welche sich nur auf HPC konzentriert. Dort wird das geld verdient und nur rechenleistung bringt das geld.
Wenn sich schon NV mit RT so schwer tut, könnte intel einfach nochmal aussetzen und es noch später bringen. Intel wird sicherlich nicht weniger fläche brauchen, wenn es bei NV schon ein rießen klopper geworden ist. Die entwichlung dafür kostet auch unsummen.

Intel wird auch nicht die quadro kundschaft abgreifen können.
Ein fehlen von RT bei Intel wäre kein großer verlust für deren erste generation.

Fragman
2019-01-23, 08:22:42
Ein fehlen von RT bei Intel wäre kein großer verlust für deren erste generation.

Wenn sie wirklich schon 2020 kommen und das nur eine low end Lösung wird, ja. Sollte es aber 2021 werden und die peilen mind mid range an, werden sie RT brauchen, denn AMD wird es zu dem Zeitpunkt auch schon haben.

Kartenlehrling
2019-02-19, 23:16:32
https://pbs.twimg.com/media/DzzQ957WwAEVkkR.jpg
https://www.forbes.com/sites/marcochiappetta/2018/12/31/intel-xe-discrete-gpu-concept-art-sports-edgy-optane-like-lighted-design/?spredfast-trk-id=sf207876782#6683d0d85bb6

Sieht schon Sexy aus, 6+8pin power reicht mir, ich hätte sogar lieber 2x 6pin :cool:

Linmoum
2019-02-19, 23:20:54
Bevor hier jetzt jemand auf falsche Gedanken kommt: Nur ein random Artwork und nichts offizielles.

dargo
2019-02-19, 23:45:12
Das ist auch gut so... in erster Linie sieht es nämlich laut aus. :D

sulak
2019-02-20, 00:05:22
Gamer GPU von Intel :ulol:

Ohne großes Treiber/FixShit Team wird das nix. Hat Intel doch schon paarmal versucht und ist peinlich gescheitert..
Ob das von den Kohlen her lohnt? Mit Mining ist ja nix mehr zu holen.

Naja 2020 werden wir sehen ob es nur eine GPU, und damit nix wird, oder Sie eine Familie aus dem Boden stampfen können.

gravitationsfeld
2019-02-20, 00:46:22
"Ein paar Mal"? Du meinst i740 in 1998? Larrabee wurde nie als Grafikkarte auf den Markt gebracht.

Dural
2019-02-20, 00:55:00
Wurde aber gross als gaming lösung angekündigt...

gravitationsfeld
2019-02-20, 18:08:43
i740 war eigentlich ziemlich solide und Larrabee ist nicht "ein paar Mal".

BoMbY
2019-02-20, 21:15:26
Falls es jemanden interessiert, Larrabee:

https://www.youtube.com/watch?v=ud5aJxdMJNo

http://vgamuseum.ru/gpu/intel/intel-lrb1-larrabee-project-codename-aubrey-island-knights-ferry-card/

Blediator16
2019-03-18, 20:41:21
https://www.tomshardware.com/news/intel-exascale-aurora-supercomputer-xe-graphics,38851.html

Intel, der alteingesessene GPU Produzent, im Cray Exascale Supercomputer :biggrin:

Setsul
2019-03-19, 00:02:12
Das fühlt sich schon fast an wie Itanic. Alle überzeugen, dass es toll wird und dann auf einen Schlag alle versenken außer sich selbst, weil man merkt dass der x86 Markt ja doch nicht so schlecht ist.

Also entweder hat Intel Cray überzeugt ohne irgendetwas zu haben oder sie haben etwas und es ist tatsächlich gut.

2020 wissen wir dann was es war.

amdfanuwe
2019-03-19, 02:08:50
Also entweder hat Intel Cray überzeugt ohne irgendetwas zu haben oder sie haben etwas und es ist tatsächlich gut.

Koduri hat für Vega auch viel getrommelt.
Und wenns für HPC tatsächlich gut wird, heißt es immer noch nicht, dass es zum zocken taugt.

Fragman
2019-03-19, 06:39:57
Vielleicht ist das System auch "sponsored by intel" und einfach eine Art Marketing?
Würde verdeutlichen, das intel es ernst meint. Aber heissen muss das ja nichts.

Setsul
2019-03-19, 11:24:02
@amdfanuwe:
Richtig, könnte natürlich auch nur ein besserer Xeon Phi sein, aber für Grafik praktisch unbenutzbar. Wäre nicht das erste Mal, dass eine Intel GPU nur als "Coprozessor" wirklich nützlich ist.

@Fragman:
Aber Cray baut nicht den größten Supercomputer der Welt um Marketing für Intel zu betreiben. Bei der Größe sind auch 5% mehr Stromverbrauch gewaltig.
Intel ist es sicher ernst.
Interessant ist aber wie sie das Wort "GPU" vermeiden. "Compute Architecture" traut man Intel zu, aber wenn Cray schreibt sie verwenden die erste neue GPU von Intel anstatt von einem der etablierten Hersteller, dann ist das eher negativ belegt.

Wake
2019-03-21, 14:11:24
Intel hat wohl Gefallen an den SSD-inspirierten mock ups gefunden, haben sie doch weitere von Fans erstellte Artworks einer Einsteigerkarte in einer Präsentation gezeigt:
https://i.imgur.com/lHlZvOl.jpg

https://i.imgur.com/2G8iP5H.jpg

Konservativere Variante
https://i.imgur.com/zqSM0fB.png

HWCanucks-Twitter (https://twitter.com/hardwarecanucks/status/1108564558010957825)

DrumDub
2019-03-21, 14:22:45
sieht nach 3x dp und 1x hdmi aus ...

Linmoum
2019-03-21, 15:58:19
sieht nach 3x dp und 1x hdmi aus ...
weitere von Fans erstellte Artworks
;)

Benutzername
2019-03-24, 20:32:50
Bevor hier jetzt jemand auf falsche Gedanken kommt: Nur ein random Artwork und nichts offizielles.

Sieht aus wie die Karten SSDs die intel vertickt. Mit etwas Retusche.

Das ist auch gut so... in erster Linie sieht es nämlich laut aus. :D

Jupp. Und nach Disco. Finde Ich sowas von albern, daß die ihre Optane mit LED Beleuchtung vertreiben.

gmb
2019-03-31, 16:35:21
Exclusive: NVIDIA's Tom 'TAP' Petersen Shockingly Departs For Intel
https://hothardware.com/news/nvidia-tom-petersen-departs-company#1msgtb4QMqB8BXOg.99


Intel ist weiter auf Einkaufstour.

aufkrawall
2019-03-31, 16:41:20
Hoffentlich muss jetzt nicht pixeljetstream als Punching Bag-Ersatz für Jensen auf der Bühne stehen. :freak:

BoMbY
2019-03-31, 22:00:36
Gab wohl irgendeinen Intel-Event, und einige sehr merkwürdige angebliche Werte von WTFtech: https://wccftech.com/intel-xe-unleashed-gpu-lineup-leaked-xe-power-2-flagship-graphics-card-roadmap-and-more/

Das OneAPI-Ding könnte sehr gut möglich sein, das wäre eigentlich das was ich mir von AMD schon lange erhofft hätte, und über die Jahre auch schon mehrfach irgendwo erwähnt habe als Möglichkeit.

reaperrr
2019-03-31, 22:02:56
Gab wohl irgendeinen Intel-Event, und einige sehr merkwürdige angebliche Werte von WTFtech: https://wccftech.com/intel-xe-unleashed-gpu-lineup-leaked-xe-power-2-flagship-graphics-card-roadmap-and-more/

Das OneAPI-Ding könnte sehr gut möglich sein, das wäre eigentlich das was ich mir von AMD schon lange erhofft hätte, und über die Jahre auch schon mehrfach irgendwo erwähnt habe als Möglichkeit.
Beim wccftech-Betreiber ist schon 1. April.

Bei mir ist der Groschen aber auch erst beim vermeintlichen angepeilten Release-Datum gefallen (31.06.2020 ;D)

Fusion_Power
2019-03-31, 22:10:23
Intel hat wohl Gefallen an den SSD-inspirierten mock ups gefunden, haben sie doch weitere von Fans erstellte Artworks einer Einsteigerkarte in einer Präsentation gezeigt:

Sieht doch eigentlich ganz gut aus, nicht zu "stealth-ig". Aber was haben die immer mit diesen Raidal-Lüftern? Oder gibts die mittlerweile auch in leise? Würd ich gleich einkassieren, auch als Fan-Artwork.

BoMbY
2019-03-31, 22:10:32
Beim wccftech-Betreiber ist schon 1. April.

Achso, ja, das wäre natürlich auch eine Erklärung ... :biggrin:

gravitationsfeld
2019-03-31, 22:30:28
Gab wohl irgendeinen Intel-Event, und einige sehr merkwürdige angebliche Werte von WTFtech: https://wccftech.com/intel-xe-unleashed-gpu-lineup-leaked-xe-power-2-flagship-graphics-card-roadmap-and-more/

Das OneAPI-Ding könnte sehr gut möglich sein, das wäre eigentlich das was ich mir von AMD schon lange erhofft hätte, und über die Jahre auch schon mehrfach irgendwo erwähnt habe als Möglichkeit.
Was soll "OneAPI" bitte sein? AMD hat jetzt schon eine Abstraktionsschicht zwischen D3D12/Vulkan und dem Treiber. Nennt sich "PAL".

aufkrawall
2019-03-31, 22:34:32
Was soll "OneAPI" bitte sein? AMD hat jetzt schon eine Abstraktionsschicht zwischen D3D12/Vulkan und dem Treiber. Nennt sich "PAL".
Der proprietäre Linux OpenCL-Treiber für Raven/Vega baut übrigens auch auf PAL auf. Könnte auf den Windows-Treiber auch zutreffen.

Screemer
2019-03-31, 22:35:25
:lol: echt gut gemachter Aprils fool joke.

danarcho
2019-03-31, 23:11:04
Könnte auf den Windows-Treiber auch zutreffen.
Da erzählst du aber kein Geheimnis gerade...

Ich bin auf das Intel Ding aber auch reingefallen. Echt aufwendig gemacht, alle Achtung.

BoMbY
2019-04-01, 01:02:01
Was soll "OneAPI" bitte sein? AMD hat jetzt schon eine Abstraktionsschicht zwischen D3D12/Vulkan und dem Treiber. Nennt sich "PAL".

Na, sowas halt, in etwa: https://patents.google.com/patent/US20160253774A1/en

aufkrawall
2019-04-01, 01:09:21
Da erzählst du aber kein Geheimnis gerade...

Ginge vielleicht auch ein "Ja" oder "Nein" als Ergänzung, ggf. mit einem Nachweis?

danarcho
2019-04-01, 20:10:28
Ja, hab aber keinen Nachweis. Ich denke bridgman hat das in den Untiefen des Phoronix Forums mal gesagt, ansonsten ist es aber auch völlig offensichtlich. AMDGPU-Pro ist praktisch der Windows-Treiber minus die OS-Bits. AMDVLK ist das gleiche in Grün mit LLVM als Compiler (potentiell minus ein paar App profiles).

aufkrawall
2019-04-01, 20:28:03
Seit wann unterstützt der Linux-Treiber OCL 2.0, abseits von rocm?

danarcho
2019-04-01, 20:53:14
Ich kapier gerade den Zusammenhang nicht mehr, aber der alte Linux OpenCL Treiber konnte schon Ewigkeiten 2.0, sogar mit SPIRV support.

aufkrawall
2019-04-01, 22:58:34
Nö:
Device Version OpenCL 1.2 AMD-APP (2766.4)
Driver Version 2766.4
Device OpenCL C Version OpenCL C 1.2

danarcho
2019-04-01, 23:31:21
Was auch immer das noch mit dem Thema zu tun hat: AMDGPU-Pro 17.10 hatte schon fast alle Features von 2.0 und SPIRV support. Conformance ist eine andere Geschichte. Aber in wiefern soll das ein Argument gegen DX/Vulkan via PAL unter Windows sein?!

gravitationsfeld
2019-04-01, 23:44:25
Na, sowas halt, in etwa: https://patents.google.com/patent/US20160253774A1/en
Ich glaub es wenn ich es sehe. Die Daten-Raten auf dem Fabric muessen gewaltig sein um transparent mehrere GPU-Dies zu ermoeglichen. Mit Silicon-Interposer vielleicht. Aber das hat dann auch nicht mehr viel mit der Software zu tun.

Wenn sie wirklich meinen mit traditionellem Multi GPU daher kommen zu wollen, dann gute Nacht.

aufkrawall
2019-04-01, 23:50:58
Aber in wiefern soll das ein Argument gegen DX/Vulkan via PAL unter Windows sein?!
Ich sprach nur vom OCL-Treiber.

Naitsabes
2019-04-02, 00:12:57
[...] Die Daten-Raten auf dem Fabric muessen gewaltig sein um transparent mehrere GPU-Dies zu ermoeglichen. Mit Silicon-Interposer vielleicht. Aber das hat dann auch nicht mehr viel mit der Software zu tun. [...]


EMIB :ulove:

Loeschzwerg
2019-04-24, 17:29:44
"Rocket Lake": Cove-CPU (14nm) + Grafik (10nm) ab ca. Mitte 2020

https://pbs.twimg.com/media/D47IjHgXkAEECrS.png:large

Thx @ Blediator16 für den Fund (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11978608#post11978608).

Blediator16
2019-04-24, 17:32:46
Ich meine irgendwo gelesen zu haben, dass Intel ihre GPUs bei Samsung? produzieren lassen wird. War wohl falsch.

Unicous
2019-04-24, 17:38:22
Das ist die eigentliche Quelle, der Herr witeken mag es wohl nicht so gerne Quellen zu verlinken:

https://tweakers.net/nieuws/151984/roadmap-toont-dat-intel-in-2021-nog-desktop-cpus-op-14nm-maakt.html

Und es gibt auch "14nm Gfx"... könnte theoretisch Samsung sein. ;)

HOT
2019-04-24, 17:45:30
GFX in 14nm? Was will man denn damit so spät? Das ist doch direkt wieder ne Todgebuhrt.

DrumDub
2019-05-07, 11:58:27
keine überraschung ...

Knights Mill: Intel stellt Xeon Phi für Deep Learning ein (golem.de) (https://www.golem.de/news/knights-mill-intel-stellt-xeon-phi-fuer-deep-learning-ein-1905-141082.html)

gmb
2019-05-07, 12:36:57
"Rocket Lake": Cove-CPU (14nm) + Grafik (10nm) ab ca. Mitte 2020



Hat mit dem Topic nicht viel zu tun. Die integrierte ist in 10nm gefertigt, ein Chiplet also.

Loeschzwerg
2019-05-07, 13:08:11
War mir scheißegal, wollte kein neues Thema aufmachen :freak:

deekey777
2019-05-07, 15:21:30
Der GPU-Kern sitzt doch weiterhin abseits des CPU-Kerns, oder? Also diskret.

:weg:

Linmoum
2019-05-08, 23:55:39
Im Rahmen des diesjährigen Investor Meetings hat Intel nicht nur den Zeitplan für 10 nm bekräftigt, sondern auch erstmals einen konkreten Termin für 7 nm genannt. Demnach soll die Produktion im 7-nm-Prozess im Jahr 2021 anlaufen. Ein erstes Produkt wird ein Grafikchip der Xe-Architektur sein.
https://www.computerbase.de/2019-05/chipfertigung-intel-7-nm-xe-gpu-2021/

Also statt wie bisher angekündigt 2020 jetzt erst 2021? Oder will man dann wirklich kurz vorher noch 14nm-Abfall bringen?

gmb
2019-05-09, 00:52:36
https://www.computerbase.de/2019-05/chipfertigung-intel-7-nm-xe-gpu-2021/

Also statt wie bisher angekündigt 2020 jetzt erst 2021? Oder will man dann wirklich kurz vorher noch 14nm-Abfall bringen?


Das verstehst du falsch. Der erste 7nm Chip wird für ein Xe Chip bestimmt sein, der dann 2021 kommen soll, nicht der erste Xe Chip im Jahr 2020.

crux2005
2019-05-09, 01:25:58
https://www.computerbase.de/2019-05/chipfertigung-intel-7-nm-xe-gpu-2021/

Also statt wie bisher angekündigt 2020 jetzt erst 2021? Oder will man dann wirklich kurz vorher noch 14nm-Abfall bringen?

Teo hat es auch schon geschrieben: http://vrworld.com/2009/10/12/an-inconvenient-truth-intel-larrabee-story-revealed/

Die erste GPU der gen. ist proof of concept. Die zweite ist Testbed und die dritte "done-right". Oder so ähnlich. ;)

y33H@
2019-05-09, 01:41:27
Tiger Lake U mit Xe-Grafik in 10+ nm für 2020:

66539

Ravenhearth
2019-06-30, 13:56:13
Second-gen Intel Xe GPUs to mix 7nm silicon with real-time ray tracing (https://www.pcgamesn.com/intel/xe-gpu-7nm-ray-tracing)

JVC
2019-06-30, 14:45:59
Second-gen Intel Xe GPUs to mix 7nm silicon with real-time ray tracing (https://www.pcgamesn.com/intel/xe-gpu-7nm-ray-tracing)
Wird interessant was da Intel ...2021?... präsentieren wird :smile:

M.f.G. JVC

r3ptil3
2019-07-10, 12:05:29
https://www.techpowerup.com/img/ux2a4o980LGSKEnI.jpg
https://www.techpowerup.com/img/nPyYcHN8vxoN6pNC.jpg
https://www.techpowerup.com/img/WS1KqZYmurmhAxcY.jpg

https://www.techpowerup.com/256960/intel-puts-out-more-official-looking-renders-of-the-xe-graphics-card

Sieht aber stark nach Fake aus.

y33H@
2019-07-10, 12:15:35
Da steht doch auch "official looking" ...

Badesalz
2019-07-10, 12:30:29
Wann soll das kommen und was soll das leisten, zu der Zeit, mit 2x 8pin?? :freak:
375W, wäre das schon Intels 10nm? :ulol:

Platos
2019-07-10, 12:37:16
Ende 2020 Sollen die ja kommen, laut Intel (Mitte 2018).

Aber wer fertigt die eigentlich ? Intel selbst, nehme ich mal an... Also 10nm Intel oder vlt. doch 14nm+++ (wie viele + sinds schon?:biggrin:). Gibt es Infos dazu?

gmb
2019-07-10, 12:59:49
Da steht doch auch "official looking" ...



Das sind nur concept arts von jemanden, die verlinken da ständig solcher Bilder auf Twitter.

https://twitter.com/IntelGraphics/status/1138509537391054855

gmb
2019-07-26, 16:03:29
Im mittlerweile gelöschten Testtreiber gab es auch zur diskreten Grafik ein paar Einträge. Die Gen12 in Tigerlake-U ist Gen12 LP basierend und es gibt auch eine dedizierte Variante davon namens DG1. Gen12 HP hat 3 Einträge und nennt sich DG2. Ich frage mich, ob die 512/256/128 Nummern die Anzahl der EUs angibt. Intel gibt gerne die EU Anzahl bei solchen Einträgen mit an.


; DG1 HW
iDG1LPDEV = "Intel(R) UHD Graphics, Gen12 LP DG1" "gfx-driver-ci-master-2624"

; DG2 HW
iDG2HP512 = "Intel(R) UHD Graphics, Gen12 HP DG2" "gfx-driver-ci-master-2624"
iDG2HP256 = "Intel(R) UHD Graphics, Gen12 HP DG2" "gfx-driver-ci-master-2624"
iDG2HP128 = "Intel(R) UHD Graphics, Gen12 HP DG2" "gfx-driver-ci-master-2624"

Ghost1nTh3GPU
2019-08-02, 19:31:53
Intel Grafikkarten zum Herstellungspreis? - $200 mit HBM (https://www.computerbase.de/2019-08/intel-grafikkarte-arctic-sound-200-dollar-hbm/)

Die 20er Jahre werden bestimmt ziemlich aufregend bzgl. GPUs, spätestens wenn vielleicht auch noch Tencent/China einsteigt.

Lehdro
2019-08-02, 22:05:55
1. Raja labert extrem viel wenn der Tag lang ist.
2. Intel muss erstmal beweisen das die irgendwas in der Richtung auch mal durchziehen, denn ähnliches habe ich schon zwei mal von Intel gehört. Nachher wird das wieder nur so eine Datacentergeschichte weil sie erneut nichts auf die Kette kriegen weil das Management alles versaut.

gmb
2019-08-03, 00:50:16
Intel Grafikkarten zum Herstellungspreis? - $200 mit HBM (https://www.computerbase.de/2019-08/intel-grafikkarte-arctic-sound-200-dollar-hbm/)

Die 20er Jahre werden bestimmt ziemlich aufregend bzgl. GPUs, spätestens wenn vielleicht auch noch Tencent/China einsteigt.


No, Raja Koduri Didn't Say Intel's Discrete GPUs Will Debut at $200 (https://www.tomshardware.com/news/intel-discrete-gpu-xe-debut-200,40083.html)


Das ist wieder typisch, Hauptsache eine Klick News generieren können.

Um nochmal auf die Gen12/Xe zurückzukommen, es gibt genau genommen 3 verschiedene Gen12 Versionen im Treiber.

Gen12_0 LP (sämtliche iGPUs: u.a. Tigerlake, + discrete "DG1")
Gen12_5 HP (Artic Sound)
Gen12_7 HP (discrete "DG2")

Ghost1nTh3GPU
2019-08-03, 08:00:10
Hätte den Intel Kapazitäten auch den Speicher selbst zu fertigen?

Die Gen12 Versionen klingen ähnlich dem was bei Nvidia die Compute Capability Stufen sind. In der höchsten Ausbaustufe wohl viel DP und DL Leistung.

gmb
2019-08-07, 16:37:06
The scalability of the Xe architecture is better than most will expect; doubly so when it’s given discrete energy and bandwidth
https://twitter.com/zebedee666/status/1159102736006148096

davidzo
2019-08-07, 17:57:04
Hätte den Intel Kapazitäten auch den Speicher selbst zu fertigen?


Das wird man ziemlich sicher nicht machen, da man den auch billig einkaufen kann. Man hat schon jetzt Probleme bei den 14nm Kapazitäten und bei 10nm erst recht. Intel hat mit DRAM überhaupt keine Erfahrungen, da geht es auch eher um Masse statt Klasse, bzw. Kosteneffizienz. Für schnöden DRAM sind intels Fabs einfach zu teuer, deshalb beschneidet man auch gerade die NAND Produktion auf Kosten des hochmargigen 3d-xpoint.

Da man für Rocket Lake und Co bereits bei Samsung Kapazitäten (Chipsets etc.) reserviert hat, rechne ich eher damit dass selbst Arctic Sound (discrete gpu) nicht mehr von den eigenen Fabs kommt...
Wieso auch, der eigene, teurere Prozess hat für GPUs gar keine Vorteile gegenüber Bulk Prozessen bei TSMC oder Samsung... Bei Cannon Lake 10nm musste die IGP schließlich sogar deaktiviert werden. Ich glaube kaum dass man da Lust auf eine Wiederholung hat.


Bei Arctic Sound schätze ich mal mit modesten 256EUs. Das entspräche 2048 Shader-Alus und sollte reichen um irgendwo im mainstream discrete Markt mit zu spielen. Bei discrete wird man auch viel höhere GPU taktraten fahren, die sind momentan eh nur durch die Bandbreite und das 15/25Watt TDP Limit gebremst.

48 Gen 11 EUs (384ALUs) entsprechen laut den ersten Tests ja circa 8-10 AMD Vega CUs (640ALUs). Ich denke XE mit schlägt in eine ähnliche Kerbe und wird die Leistung pro EU nicht drastisch verbessern, sondern in erster Linie Skalierbarkeit und Bandbreitenbedarf. Zumindest soll Tigerlake ja mit 96EUs genau doppelt so schnell wie Icelake mit 48 sein, bzw. 4x gegenüber der aktuellen 24EU Skylake/whiskey-lake GT2.

ggf. hat man da auch nur ein 256bit GDDR6 Interface und erst beim HPCchip dann HBM2 - würde jedenfalls zum Footprint der Karte passen die man im Teaser gezeigt hat. 2stack HBM2 wäre wohl auch als Karte kompakter...

Ghost1nTh3GPU
2019-08-07, 18:12:13
Intel könnte mit EMIB halt relativ einfach HBM oder eine ähnliche Eigenentwicklung einsetzen. Gegenüber GDDR6 definitiv ein Vorteil beim Formfaktor und man hätte die Produktion noch besser unter Kontrolle.

gmb
2019-08-07, 18:37:00
Bei Cannon Lake 10nm musste die IGP schließlich sogar deaktiviert werden. Ich glaube kaum dass man da Lust auf eine Wiederholung hat.


Wen interessiert jetzt noch Cannonlake? Das ist doch ein alter Hut. Intel hat Icelake und die GPU läuft. Außerdem weißt du doch gar nicht, warum die Gen10 damals deaktiviert wurde. Laut Charlie gab es auch Komplikationen durch Design Probleme. Auch hätten sie dann wegen dem einen Modell die GPU Treiberpflege und Support mehr oder weniger aufrecht erhälten müssen, doch so konnten sie das komplett runterfahren.


Zumindest soll Tigerlake ja mit 96EUs genau doppelt so schnell wie Icelake mit 48 sein, bzw. 4x gegenüber der aktuellen 24EU Skylake/whiskey-lake GT2.


Das stimmt nicht. 96 EUs sollen viermal so schnell sein wie Whiskey Lake GT2, bei Icelake gibt Intel 2x an für die G7 mit 64 EUs, was nach den ersten Tests hinkommt. Icelake hat immer mit dem Sahnestück G7 verglichen, keine Ahnung wie du da auf 48 kommst. Und eine Verdopplung über Icelake mit nur 50% mehr EUs sind nur möglich, wenn sich Gen12 deutlich abhebt, weil das trotz Verbesserungen nie annähernd skaliert bei der Bandbreite. Gen11 hat 2,67 mehr EUs gegenüber Gen9 GT2 und kommt auf 2x Performance.

Man kann sich sicher sein, dass Intel Verbesserungen und Anpassungen einfließen lässt, die Gen11 selber ist ja auch nicht wirklich neu nach den ganzen Verschiebungen.

woodsdog
2019-08-08, 07:04:37
Das Ganze steht und fällt mit dem Treiber. Wenn Intel da so weiter macht wie bisher ist das für Games auf absehbare Zeit keine Option.

=Floi=
2019-08-08, 18:17:12
bei der hardware werden sie imho auch nicht mithalten können. Das teil wird viel zu sehr auf HPC ausgelegt werden.

Ghost1nTh3GPU
2019-08-08, 18:46:06
Die HPC-GPU war Larrabee, Multicore Pentium mit TMU und fetter Vektor-FP-Einheit.
Mit Xe hat man deutlich mehr GenX-Einflüsse und auch Leute von anderen Herstellern geholt die auf 3D-Grafik spezialisiert sind.

Die Mrd.-Deals für künftige Gamestream-Cluster werden jetzt verhandelt und Intel will hier Teil sein.

gmb
2019-08-08, 20:02:42
bei der hardware werden sie imho auch nicht mithalten können. Das teil wird viel zu sehr auf HPC ausgelegt werden.


Eher unwahrscheinlich, weil Intel vom low power Ansatz kommt, außerdem ist das ein update zur Gen11. Die skalieren das jetzt nur hoch. Und klar, je nach Einsatzgebiet wird es Unterschiede geben, die unterschiedlichen Gen12 Varianten im Treiber deuten das schon an. Und wie ich gestern bereits schon verlinkt hatte, ist Intel der Meinung, die Architektur wäre sehr gut skalierbar.

gmb
2019-10-17, 16:38:00
Intel to unveil discrete 10nm GPU by mid-2020 (https://www.digitimes.com/news/a20191016PD204.html)


Intel is looking to unveil its first discrete GPU solution based on its Xe architecture and built using 10nm process technology by the middle of 2020, according to industry sources.


Zur Computex könnte aber auch Tigerlake-U mit Xe vorgestellt werden, vielleicht wird das zusammengelegt. Dann tippe ich auf DG1 als erste Version, weil die wie bei Tigerlake auf Gen12LP basiert. Das wird dann eher einer Einstiegskarte im unteren Segment.

gmb
2019-10-25, 11:42:09
Intel Chief Executive Officer Bob Swan told investors on an analyst call that they have powered on the Intel Xe DG1 graphics card for the first time in the lab.
https://www.legitreviews.com/intels-first-discrete-graphics-card-powered-on-dg1-closer-to-launch_214904#Ui62KP1zECC3FkSh.99


DG1 ist dann wohl wirklich die erste.

Twodee
2019-10-25, 11:52:34
Die erste Intel Graka, da mußte ich spontan an den Good old i740 denken :)
https://imgur.com/gallery/LDIBQ

davidzo
2019-10-26, 16:38:09
Wen interessiert jetzt noch Cannonlake? Das ist doch ein alter Hut. Intel hat Icelake und die GPU läuft. Außerdem weißt du doch gar nicht, warum die Gen10 damals deaktiviert wurde. Laut Charlie gab es auch Komplikationen durch Design Probleme. Auch hätten sie dann wegen dem einen Modell die GPU Treiberpflege und Support mehr oder weniger aufrecht erhälten müssen, doch so konnten sie das komplett runterfahren.


Es ging doch um die Frage ob Intel das selber fertigt oder nicht. Solche Entscheidungen werden selbst bei AMD schon gute 3 Jahre vor dem Markteintritt gefällt. Das fällt also sehr wohl in die Zeit des Cannonlake Fiaskos. Die Manager werden dann sehr genau drüber nachgedacht haben ob man sich mit Arctic Sound erneut in die Abhängigkeit der inhouse-Fertigung begibt oder lieber unabhängig bleibt.




Das stimmt nicht. 96 EUs sollen viermal so schnell sein wie Whiskey Lake GT2, bei Icelake gibt Intel 2x an für die G7 mit 64 EUs, was nach den ersten Tests hinkommt.
Nicht notwendig genau zu wiederholenwas ich geschrieben habe.
Stimmt, die 48EUs für die volle Icelake sind falsch, keine Ahnung wo ich das her hatte.


Icelake hat immer mit dem Sahnestück G7 verglichen, keine Ahnung wie du da auf 48 kommst. Und eine Verdopplung über Icelake mit nur 50% mehr EUs sind nur möglich, wenn sich Gen12 deutlich abhebt, weil das trotz Verbesserungen nie annähernd skaliert bei der Bandbreite. Gen11 hat 2,67 mehr EUs gegenüber Gen9 GT2 und kommt auf 2x Performance.

Man kann sich sicher sein, dass Intel Verbesserungen und Anpassungen einfließen lässt, die Gen11 selber ist ja auch nicht wirklich neu nach den ganzen Verschiebungen.

Es gibt immer noch die Taktschraube. Von den 1,1 Tflops bei Icelake auf 2,0-2,2 bei Tigerlake ist es kein großer Sprung. Ich gehe davon aus dass sich
die Intel Performanceangaben kaum auf praktische Spieleperformance beziehen, da wird man so früh wohl kaum schon werte zu haben. Solche frühen Skalierungscharts beziehen sich viel eher auf die theoretische Rechenleistung, bandbreite aside. Ein viel größeres Transistorbudget ist beim praktisch gleichen Prozess wohl kaum drin, gleichzeitig sollte 10nm dann mehr mature sein. Mehr Takt ist also naheliegend.

gmb
2019-10-26, 17:13:59
Es ging doch um die Frage ob Intel das selber fertigt oder nicht. Solche Entscheidungen werden selbst bei AMD schon gute 3 Jahre vor dem Markteintritt gefällt. Das fällt also sehr wohl in die Zeit des Cannonlake Fiaskos.


Anscheinend ja schon. Die letzte Meldung von digitimes hat von 10nm gesprochen, damit kann eigentlich nur Intels 10nm gemeint sein.


Intel is looking to unveil its first discrete GPU solution based on its Xe architecture and built using 10nm process technology by the middle of 2020, according to industry sources.


Und überraschend ist das nicht, weil die Gen12 in Tigerlake ja auch in 10nm gefertigt ist. Wobei sie auch für Rocketlake 14nm nehmen, trotzdem können die nicht beliebig die komplette foundry wechseln ohne Anpassungen. Wäre hier wirklich Samsung oder TSMC im Spiel, hätte es dazu mittlerweile schon Andeutungen gegeben.



Es gibt immer noch die Taktschraube. Von den 1,1 Tflops bei Icelake auf 2,0-2,2 bei Tigerlake ist es kein großer Sprung. Ich gehe davon aus dass sich
die Intel Performanceangaben kaum auf praktische Spieleperformance beziehen, da wird man so früh wohl kaum schon werte zu haben.



Es gab schon die ersten Tigerlake-U Einträge im Mai, die Hardware ist schon länger lauffähig im ES1 or Pre-ES Stadium. Und 2+ Tflop halte ich für zu hoch gegriffen bei 50% mehr EUs, Intel müsste schon arg hoch mit dem Takt gehen für eine iGPU.



Solche frühen Skalierungscharts beziehen sich viel eher auf die theoretische Rechenleistung, bandbreite aside.


Nein, die beziehen sich auf 3dmark. Die theoretische Rechenleistung wäre noch viel höher bzw. funktioniert nur sehr begrenzt im Generationenvergleich. Die theoeretische Rechenleistung skaliert in der Praxis sonst sehr schlecht bei iGPUs durch andere Abhängigkeiten. Bei Tigerlake-U jedoch müsste die Skalierung durch die neue GPU Architektur in der Summe mehr bringen, als es die Rechenleistung auf dem Papier erlauben würde.

davidzo
2019-10-26, 20:18:23
Anscheinend ja schon. Die letzte Meldung von digitimes hat von 10nm gesprochen, damit kann eigentlich nur Intels 10nm gemeint sein.

Das ist noch alles andere als klar. Ja, 12th gen bzw. XE wird auch in 10nm implementiert, soviel hat Intel zwar schon gesagt. Damit könnte aber genauso gut Tigerlake gemeint sein. Falls die restlichen chips doch noch 14nm sind, wäre es taktisch klug das ganze mit einer Meldung über 10nm XE in Tigerlake zu verhüllen, denn ein alter Prozess für eine neue Architektur ist keine gute PR. Es gibt eben noch einige Quellen die behaupten dass DG1 ein 14nm part (https://www.notebookcheck.net/Intel-Xe-DG1-iDG1LP-Mobile-GPU.439516.0.html) ist, auch wtf-tech ist sich unsicher (https://wccftech.com/intel-xe-gpu-architecture-2x-performance-ray-tracing-support/), wenn das irgendwas heißt. Interessanterweise steht aber schon fest dass ein discrete-XE-Abkömmling als erstes 7nm Produkt kommen wird. Schon merkwürdig, wenn man sich einem weit entfernten Produkt äußert, aber nicht dazu in welchem Prozess die näher dran liegenden discrete XEs kommen.

gmb
2019-10-26, 21:19:37
Damit könnte aber genauso gut Tigerlake gemeint sein.


Digitimes redet von der diskreten Grafik DG1! Meine Fresse, wie schwer kann man von Kapie sein, kannst du nicht lesen?


Es gibt eben noch einige Quellen die behaupten dass DG1 ein 14nm part (https://www.notebookcheck.net/Intel-Xe-DG1-iDG1LP-Mobile-GPU.439516.0.html) ist, auch wtf-tech ist sich unsicher (https://wccftech.com/intel-xe-gpu-architecture-2x-performance-ray-tracing-support/),


Das ist keine Quelle, die spekulieren nur....im Gegensatz zu digitimes.



Schon merkwürdig, wenn man sich einem weit entfernten Produkt äußert, aber nicht dazu in welchem Prozess die näher dran liegenden discrete XEs kommen.


Hier liegst du auch falsch, Intel hat 10nm für die diskrete GPU nächstes Jahr tatsächlich vor ein paar Tagen im earnings call bestätigt:



In Q3, we also shipped our first 10-nanometer Agilex FPGAs. And in 2020, we'll continue to expand our 10-nanometer portfolio with exciting new products including an AI Inference Accelerator, 5G base station SOC, Xeon CPUs for server storage, and network and a discrete GPU.
https://www.fool.com/earnings/call-transcripts/2019/10/24/intel-corp-intc-q3-2019-earnings-call-transcript.aspx


Und das ist übrigens ganz unabhängig von digitimes, die hatten das schon vorher geschrieben mit den 10nm. Das Transcript in dem Wortlaut war mir auch neu. Du brauchst jetzt nicht weiter rumzurudern, deine ganzen Ausführungen sind einfach Quatsch gewesen.

Leonidas
2019-11-07, 06:59:35
Aus dem GFXBench-Eintrag läßt sich wohl nichts lesen ...
https://gfxbench.com/device.jsp?benchmark=gfx50&did=78110737&os=Windows&api=vulkan&hwtype=GPU&hwname=Intel%28R%29+Graphics+gfx-driver-user-feature_dg1_poweron-27723+DCH+ReleaseInternal