PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Xe discrete GPUs (DG1, 2021 + DG2 "Alchemist", 2022)


Seiten : [1] 2 3 4 5 6 7

w0mbat
2017-11-09, 00:08:38
Intel to Develop Discrete GPUs, Hires Raja Koduri as Chief Architect (https://www.anandtech.com/show/12017/intel-to-develop-discrete-gpus-hires-raja-koduri-as-chief-architect)

Raja geht anscheinend als Senior VP zu Intel und soll dort eine diskrete GPU entwickeln. Was denkt ihr? Eher richtung compute oder vielleicht sogar auch gaming?

Wird spannend! :eek:

Wake
2017-11-09, 00:53:58
Schon wenn dabei was abfällt was in dem Performancegebiet von 1060/580 wildern kann wärs für Nvidia und AMD bitter.

Eine wettbewerbsfähige high-end dGPU hört sich weit spannender an, dürfte aber wohl der Super-GAU für rot und grün sein (ob die für Gaming kommt sei mal dahingestellt) - einen 3. Player am Markt würde derzeit Nvidia sicher noch eher verkraften als RTG.

Semi-OT Frage (weil Notebook und so):
Ob Intel mit der neuen AMD-Kooperation erste Erfahrungen sammeln will bevor man auf ein eigenes GPU-Design umstellt?

BoMbY
2017-11-09, 01:03:02
Ich sehe im Moment nicht wie das alles so schnell passieren kann, ohne dass es irgendeinen Deal zwischen AMD und Intel gibt. Ich sehe nur nicht wo da der Benefit für AMD wäre? Da hätte ich es logischer gefunden wenn man RTG bei AMD ausgegliedert hätte, als 50:50 Joint-Venture mit Intel, oder sowas.

Ganon
2017-11-09, 01:09:53
Finde ich prinzipiell gut. NVidia kann etwas finanzkräftige Konkurrenz vertragen, gerade im Computing-Bereich. Zumindest schließe ich das jetzt mal aus Intels Bemühungen unter Linux sowohl im Bereich Grafik als auch Computing.

Ist ja aber nun auch nicht Intels erster Versuch in diese Richtung. Könnte also ebenso ausgehen wie bei Xeon Phi. Dauert jetzt vermutlich auch noch ein paar Jahre.

iuno
2017-11-09, 01:19:30
Naja, Intel will sicherlich keine Gamer GPUs machen, sondern eher was in Richtung CUDA/HPC/ML. Das hatten sie aber schon erfolglos versucht. Koennte es da nicht sogar sein, dass Intel was mit GCN macht? Knight's xyz konnte in Sachen Effizienz nicht mit Nvidia mithalten, GCN schon und es kaeme ja sogar noch Intels Fertigungstechnologie dazu, was sicherlich auch kein Nachteil ist. Wenn Intel also auf GCN Zugriff bekaeme, koennten sie die Plattform staerken oder auch ueberhaupt endlich mal zu einem brauchbaren Konkurrenten fuer CUDA machen. Nvidia kooperiert ja auch mit IBM, AMD will die ROCm auch auf ARM oder POWER bringen. Von dem Ganzen wuerde ja auch AMD profitieren. Geruechte, AMD wuerde seine Grafik IP lizenzieren, kamen ja auch hin und wieder auf... Wenn AMD verzweifelt genug ist, weil es mit der RTG nicht laeuft und Intel doch ziemlich die Hosen voll hat, koennte ich mir nach all den News tatsaechlich vorstellen. Der mobile Hybride ist vielleicht auch ein Testballon hierfuer.
Wir sind ja hier im Spekuforum :D

gmb
2017-11-09, 01:23:12
Von wegen, er möchte mehr Zeit mit der Familie verbringen. AMD hat ihn offensichlich gefeuert nach dem Vega Debakel. Damit beide Seiten ihr Gesicht wahren können gibt es keiner zu.

MadManniMan
2017-11-09, 01:33:01
Schon wenn dabei was abfällt was in dem Performancegebiet von 1060/580 wildern kann wärs für Nvidia und AMD bitter.

Eine wettbewerbsfähige high-end dGPU hört sich weit spannender an, dürfte aber wohl der Super-GAU für rot und grün sein (ob die für Gaming kommt sei mal dahingestellt) - einen 3. Player am Markt würde derzeit Nvidia sicher noch eher verkraften als RTG.

Semi-OT Frage (weil Notebook und so):
Ob Intel mit der neuen AMD-Kooperation erste Erfahrungen sammeln will bevor man auf ein eigenes GPU-Design umstellt?


Ich sehe im Moment nicht wie das alles so schnell passieren kann, ohne dass es irgendeinen Deal zwischen AMD und Intel gibt. Ich sehe nur nicht wo da der Benefit für AMD wäre? Da hätte ich es logischer gefunden wenn man RTG bei AMD ausgegliedert hätte, als 50:50 Joint-Venture mit Intel, oder sowas.

RTG?

Brillus
2017-11-09, 01:51:45
RTG?

Radeon technology group

Leonidas
2017-11-09, 06:34:03
Originale Pressemittteilung von Intel:
https://newsroom.intel.com/news-releases/raja-koduri-joins-intel/

Loeschzwerg
2017-11-09, 07:12:52
Ich find's genial :) Da könnte wirklich etwas Schwung in den langweiligen Grafikmarkt kommen, super.

Theoretische GCN IP Lizenzierung an Intel... vergleichbar mit dem ARM Lizenzmodell? Wäre durchaus spannend.

fondness
2017-11-09, 07:20:36
Von wegen, er möchte mehr Zeit mit der Familie verbringen. AMD hat ihn offensichlich gefeuert nach dem Vega Debakel. Damit beide Seiten ihr Gesicht wahren können gibt es keiner zu.

Sehe ich ähnlich. Raja hatte in seiner Position mit 100%iger Sicherheit eine saftige Konkurrenzklausel im Vertrag. Ohne die Zustimmung von AMD wäre der Wechsel so gar nicht machbar.

w0mbat
2017-11-09, 07:30:57
Sehe ich ähnlich. Raja hatte in seiner Position mit 100%iger Sicherheit eine saftige Konkurrenzklausel im Vertrag. Ohne die Zustimmung von AMD wäre der Wechsel so gar nicht machbar.

Bestimmt nicht, die sind in Californien (wo Intel & AMD sitzen) nämlich komplett verboten.

Thoro
2017-11-09, 07:55:56
Gefeuert wegen Vega klingt für mich an sich durchaus schlüssig. Aber: wenn der so eine Niete ist, warum kriegt er dann bei Intel sofort eine derart verantwortungsvolle Position? Das passt in meinen Augen nicht zusammen und lässt da auf mehr schließen. Eben zB die Möglichkeit einer weitreichenderen Kooperation von AMD und Intel. Oder halt, dass Raja in Wahrheit nicht an Vega Schuld war und im Gegensatz zur Öffentlichkeit weiß Intel das auch.

AffenJack
2017-11-09, 07:59:32
Nur weil ein Projekt nicht so klappt ist er nicht gleich ne Niete. Guck dir doch die ganzen Manager an, die verhauen auch öfter Projekte und werden dann direkt von der nächsten großen Firma angestellt. Vega kann durchaus Rajas Schuld sein und AMD ihn dafür gefeuert haben, aber trotzdem ist er ein Mann mit viel Wissen, den man gerne einstellt. Im nächsten Projekt bei Intel wird ihm dann eben vielleicht etwas weniger Freiraum von oben gelassen oder andere Maßnahmen getroffen, damit es diesmal klappt.

Locuza
2017-11-09, 08:37:44
Raja gibt ein wenig Einsicht:

It will be a massive understatement to say that I am beyond excited about my new role at Intel. I haven't yet seen anything written that groks the magnitude of what I am pursuing. The scale of it is not even remotely close to what I was doing before. Will say more when ready!

https://twitter.com/Rajaontheedge?ref_src=twsrc%5Etfw&ref_url=https%3A%2F%2Fwww.computerbase.de%2F2017-11%2Famd-rtg-raja-koduri-amd%2F

Mal sehen was daraus wird.
Rein vom Featureset war ich schon begeistert was Gen9 anging, Intel hat jedes mal große Sprünge bis dahin hingelegt, bloß nach Gen 9 gab es dann "plötzlich" eine Durststrecke.
Es liefen zuvor Spiele-Kooperationen mit Codemasters (F1 2015) und Avalanche (Just Cause 3), die keine Früchte getragen haben und dann soll Intel ein ganzes R&D-Team entlassen haben, was bei Nvidia gelandet ist.
Andrew Lauritzen welcher ein bedeutender Teil von Intels GPU-Abteilung war, hat zu EAs SEED-Abteilung gewechselt, sicherlich auch persönlich motiviert, aber der Zeitpunkt hat es vielleicht auch einfach begünstigt, dass Intel ein wenig nachgelassen hat.

Jetzt aber scheint man wieder größere Pläne zu haben.
Joshua Barczak welcher mal bei AMD gearbeitet hat und Mitentwickler der DX10.1 ATI Demo Froblin war:
https://www.youtube.com/watch?v=iWvf7IMuYKs

Hat jahrelang an den CIV Games danach gearbeitet und wechselt jetzt auch zu Intel:
Next Monday I start a new role in @zebedee666 's team at Intel. I'll be remote from MD, working on strategic projects and local devrel
https://twitter.com/JoshuaBarczak/status/926805934869016576

HOT
2017-11-09, 10:09:58
Euch ist schon bewusst, dass es sicherlich mindestens 4 Jahre dauern wird, bis man eine High-End Intel-GPU in den Händen halten wird? Bis dahin kann man halt GCN-Chips lizenzieren (sind ja recht frei lizenzierbar offenbar) und hält an der letzten Eigenentwicklung Gen.10 fest. Ich bin mir auch sicher, dass die Entwicklung der eigenen neuen Grafik mit AMD-Patenten geschehen wird.
Raja hat sowas ähnliches gemacht, was Jim Keller gemacht hat, nämlich Team Building. Das tut er jetzt eben für Intel. Bei der RTG war er halt zusätzlich Chef, das hat ja offenbar nicht so ideal geklappt.

w0mbat
2017-11-09, 10:16:04
Es gibt mMn zwei Möglichkeiten:

1. Das war ein Coup von Intel und AMD hat nicht damit gerechnet, dass Raja zu Intel geht. Er wurde auch nicht gefeuert, sondern ist gegangen, bzw. wurde entlassen nach dem er den Wechsel angekündigt hat.

2. Das war schon lange in Planung. Intel kauft GCN für die neuen 8th Gen H-CPUs ein und bekommt Raja für die interne Entwicklung dazu. Für die kommenden GPUs wird man mit AMD zusammenarbeiten, bzw. AMD Patente und Lizenzen verwenden.

Ich tippe eher auf 2., aber wer weiß.

|MatMan|
2017-11-09, 10:17:03
Raja gibt ein wenig Einsicht:

https://twitter.com/Rajaontheedge?ref_src=twsrc%5Etfw&ref_url=https%3A%2F%2Fwww.computerbase.de%2F2017-11%2Famd-rtg-raja-koduri-amd%2F

Oh man er macht natürlich gleich weiter mit seinem üblichen BS-Bingo :uclap:

Wird echt interessant zu sehen, wohin Intel will. Das heißt sie stampfen die Xeon Phi entweder komplett ein oder bohren sie kräftig auf. Die parallel mitzuschleifen macht keinen Sinn. Da Intel von GPU spricht, also graphics, muss das eigentlich auch zwangsweise Spieletauglichkeit bedeuten. Ohne die breite Masser der Consumer bekommt man die Investitionen sonst wohl nicht wieder rein. Außerdem braucht man für die integrierten GPUs ohnehin gute Kompatibilität zu Spielen, warum sollte das nicht auch für größere dGPUs verwendet werden (unter der Annahme einer identischen Architektur)?!

Piefkee
2017-11-09, 10:23:44
https://i.redd.it/54izehl9tvwz.png


Passend und zu 99% auch war....

DrumDub
2017-11-09, 10:24:21
Es gibt mMn zwei Möglichkeiten:

1. Das war ein Coup von Intel und AMD hat nicht damit gerechnet, dass Raja zu Intel geht. Er wurde auch nicht gefeuert, sondern ist gegangen, bzw. wurde entlassen nach dem er den Wechsel angekündigt hat.

2. Das war schon lange in Planung. Intel kauft GCN für die neuen 8th Gen H-CPUs ein und bekommt Raja für die interne Entwicklung dazu. Für die kommenden GPUs wird man mit AMD zusammenarbeiten, bzw. AMD Patente und Lizenzen verwenden.

Ich tippe eher auf 2., aber wer weiß. denke auch 2. ist weitaus plausibler.

Piefkee
2017-11-09, 10:31:56
Es gibt mMn zwei Möglichkeiten:

1. Das war ein Coup von Intel und AMD hat nicht damit gerechnet, dass Raja zu Intel geht. Er wurde auch nicht gefeuert, sondern ist gegangen, bzw. wurde entlassen nach dem er den Wechsel angekündigt hat.

2. Das war schon lange in Planung. Intel kauft GCN für die neuen 8th Gen H-CPUs ein und bekommt Raja für die interne Entwicklung dazu. Für die kommenden GPUs wird man mit AMD zusammenarbeiten, bzw. AMD Patente und Lizenzen verwenden.

Ich tippe eher auf 2., aber wer weiß.


Ich denke ich die Nummer 1 zu mehr zutreffend.
Ich verlinke mal den HardOCP Artikel von 2 Jahren nach den Polaris Launch.
https://m.hardocp.com/article/2016/05/27/from_ati_to_amd_back_journey_in_futility
Es gab ja zwischen Raja und Lisa immer schon Probleme, dass sieht man auch an allen öffenltichen Auftritten der beiden. Nur mal auf die Körpersprache aufpassen.


Was ist passiert zw. RTG /AMD?
Als Lisa CEO wurde hat sich Raja den CTO (GPU-Lead) geschnappt und gedroht AMD zu verlassen, deshalb bekam er auch den Posten. Raja und das "alte" ATI Team wollten wieder mehr ATI als AMD sein. Und auch der finazielle Aspekt war ein Problem. Der Fokus lag auf CPU's und nicht auf den GPU. Das hat alles dazu beigetragen, dass es zwischen den CPU und GPU Teams spannungen gegeben hat.

Und welche Sitation haben wir nun? Raja beurlaubt und Lisa als GPU-Chef. 3 Key-Enwickler aus der Zen CPU abteilungen wechseln nun zur GPU Abteilung.

mMn hat Raja das Schiff verlassen und das unschön.

HOT
2017-11-09, 12:04:33
Punkt 2 ist plausibler. Das stinkt einfach nach Absprache. Das ist nicht alles Zufall - und zwar seit der strategischen Entscheidung, die RTG abzuspalten.

Wörns
2017-11-09, 15:59:49
Wenn es Absprache war, wofür dann Rajas Sabbatical?

Ich sehe es so:
Intel hat Raja abgeworben, und Raja hat gekündigt.
Lisa musste Raja beurlauben, solange er noch unter Vertrag stand, damit er keine weiteren Zukunftspläne mehr mitbekommt. Insbesondere nicht, wie AMD strategisch ohne ihn weiter plant.
Dass dieser Schritt von Lisa zwingend ist, war natürlich auch Raja klar. Man hat sich immerhin auf eine gemeinsame Sprechweise geeinigt, nämlich dass Raja mehr für seine Familie da sein will.
Also das Gedöns mit dem Sabbatical.

Mehr Verschwörungstheorie steckt da nicht drin.
Es ist einfach ganz normal abgelaufen, so eben, wie wenn jemand zur Konkurrenz geht.
Man kann noch erwähnen, dass Intel im Rahmen der Zusammenarbeit mit der AMD-iGPU eventuell die Möglichkeit hatte, Raja gut kennenzulernen, was deren Begehren erhöht haben könnte.
MfG

gravitationsfeld
2017-11-09, 16:42:53
Schreibt dann immer noch der Praktikant den Treiber?

Rancor
2017-11-09, 16:45:48
Larabee reloaded? ^^

AffenJack
2017-11-09, 16:52:17
Es gibt mMn zwei Möglichkeiten:

1. Das war ein Coup von Intel und AMD hat nicht damit gerechnet, dass Raja zu Intel geht. Er wurde auch nicht gefeuert, sondern ist gegangen, bzw. wurde entlassen nach dem er den Wechsel angekündigt hat.

2. Das war schon lange in Planung. Intel kauft GCN für die neuen 8th Gen H-CPUs ein und bekommt Raja für die interne Entwicklung dazu. Für die kommenden GPUs wird man mit AMD zusammenarbeiten, bzw. AMD Patente und Lizenzen verwenden.

Ich tippe eher auf 2., aber wer weiß.

Wenn die Aussagen bei Fortune nicht gelogen sind, war es definitiv mehr 1.

AMD sounded like it might sue. “We have a very strong graphics team and will continue our focus on building great products,” a spokesman said. “We also have industry-leading graphics IP and, if necessary, will vigorously defend it.”

http://fortune.com/2017/11/08/intel-gpu-raja-koduri-amd/

Es kann keine Lizenzierung von AMD IP geben, wenn AMD ihre IP energisch verteidigen will. Genausowenig dürfte das dann ein freundschaftlicher Abgang gewesen sein. Hört sich für mich eher danach an, dass es ganz schön geknallt hat und AMD Raja sofort freigestellt hat, damit er nicht mehr von AMDs Plänen mitbekommt.

BoMbY
2017-11-09, 16:55:13
Das ist eine Antwort aus dem Antwortenkatalog für dumme Pressefragen. Das bedeutet nichts.

AffenJack
2017-11-09, 16:58:51
Der erste Teil schon, das Verteidigen der IP dagegen nicht. Du erzählst nix von IP verteidigen, wenn da möglicherweise ne Lizenzierung oder so rausspringt. Das hat eher was von der IMG Stellungnahme in Richtung Apple. Aber ist eben keine offizielle Quelle.

Dino-Fossil
2017-11-09, 17:01:49
Noch mehr munterer Mix aus Gerüchte und Spekulationen:
Wenn was dran ist an den Gerüchten, das Koduri und ein paar alte ATIler die RTG wieder auslösen wollten (sei es nur für mehr Unabhängigkeit, oder um sich dann von Intel aufkaufen zu lassen?), dann hat er mglw. im letzten Jahr keine besondere Energie mehr in seinen Job gesteckt - abseits von ein wenig Marketing-BS und ein paar Parties hier und da (für mehr Marketing BS).
Denn nachdem Ryzen sich als Erfolg abzeichnete, während es bei Vega hakte, hatte Lisa Su einen besseren Stand als Raja Koduri und es war klar, dass er für den Plan keine Mehrheit bekommen würde. In der Konsequenz hat er für sich mit AMD/RTG abgeschlossen und begonnen sich nach Alternativen umgesehen und dafür die Weichen zu stellen.

deekey777
2017-11-09, 17:01:51
Das klingt ja fast nach PowerVR, als Apple die Zusammenarbeit aufkündigte und die Entwickling eigener Grafikchips angekündigt hat.

Oder Intel selbst wegen Windows 10 ARM.

BoMbY
2017-11-09, 17:43:21
Der erste Teil schon, das Verteidigen der IP dagegen nicht. Du erzählst nix von IP verteidigen, wenn da möglicherweise ne Lizenzierung oder so rausspringt. Das hat eher was von der IMG Stellungnahme in Richtung Apple. Aber ist eben keine offizielle Quelle.

Du hast den wichtigsten Punkt im zweiten Teil übersehen: "if neccassary" - "wenn notwendig". Was soll er denn sonst sagen? Wenn es notwendig wäre sich zu wehren, dann werden wir ganz bestimmt nichts machen? Natürlich würden die sich wehren, wenn sie die Chance und Notwendigkeit sehen, aber das ist eine allgemeine Aussage, und die hat keinerlei direkten Bezug zum aktuellen Thema.

BlacKi
2017-11-09, 17:47:59
hört sich an als wären sie mächtig angepisst, was sonst?

robbitop
2017-11-09, 19:26:12
Ich frage mich, ob es überhaupt möglich ist, eine Konkurrenzfähige GPU zu bauen, ohne ettliche existierende Patente zu verletzen. Da haben AMD und NV (und sicherlich auch IMG und ARM) sicherlich ein Minenfeld an Patenten. Da müssten sie sich sicherlich mit den bestehenden IHVs einig werden.

iuno
2017-11-09, 19:29:14
Intel baut doch schon seit Ewigkeiten GPUs, warum sollte das jetzt zu einem Problem werden?

robbitop
2017-11-09, 19:55:19
Aber keine konkurrenzfähigen. :)

Pirx
2017-11-09, 19:59:50
Intel hatte doch bis Anfang diesen Jahres einen Deal mit nV (nachdem nV geklagt hatte afair) und kann deren Patente, die bis zum Enddatum des Deals eingereicht wurden, weiter nutzen.

Mancko
2017-11-09, 20:33:12
Intel hatte doch bis Anfang diesen Jahres einen Deal mit nV (nachdem nV geklagt hatte afair) und kann deren Patente, die bis zum Enddatum des Deals eingereicht wurden, weiter nutzen.

Nur ist der Deal Jahre her und seitdem sind viele neue Patente hinzugekommen ohne die nix mehr geht. Ich sehs wie robbitop. Ohne AMD und Nvidia geht da so gut wie nix und das ist auch gut so, zumindest in Bezug auf Intel. Die sollen erstmal x86 für jeden freigeben. Solange sie das nicht tun finde ich es angebracht, dass sie in wichtigen Bereichen des GPU Marktes nur schwer Fuß fassen bzw. nur schwer konkurrenzfähiges raus bringen.

G3cko
2017-11-09, 20:52:58
Wenn es so geknallt hätte würde man nicht so kurzfristig APUs mit Intel + AMD Technik sehen. Das benötigt Vorlaufzeit. Ich denke der Entschluss hierzu kam mit der Abspaltung der RTG.

Zu dem damaligen Zeitpunkt hat AMD wohl erkannt, dass man nicht im HPC-Bereich und Gamingbereich gleichzeitig gewinnen kann. Das Budget für beide Baustellen ist einfach zu gering und EINE Architektur für beide Segmente immer nie so effektiv wie jeweils eine spezialisierte. Die Verkündung zur Abspaltung kam etwa 1 Jahr nach Maxwell.

Ich denke wie bereits geschrieben. Intel bekommt HPC Markt. AMD Gaming. Beide nutzen eine Querlizenzierung mittels EMIB. Intel verwendet zukünftig im Bereich Gaming die AMD IP. AMD nutzt für HPC dann Intel IP. AMD bekommt Marktanteile durch die vielen iGPUs. Intel ein konkurenzfähiges Produkt im HPC-Umfeld samt Koduri, wo AMD ohnehin die Kunden fehlen und es an Budget hapert.

Die Alternative: Nvidia läuft beiden endgültig davon.

Pirx
2017-11-09, 21:40:48
Nur ist der Deal Jahre her...
nö der Deal ist erst in 2017 ausgelaufen

VooDoo7mx
2017-11-09, 22:23:37
Intel hat doch schon eine brauchbare GPU Architektur. Diese muss nur nach oben skaliert werden und bessere Treiber und Dev Relation bekommen.
Wenn man sich die Performance von Intel iGPU Lösungen anschaut, kommen die relativ zu ihrer Rechenleistung schon sehr gut weg, es sei denn es gibt einen Treiber Ausfall.

Gen 10 IGP GT2 (Cannonlake/Icelake) wird 40 EU also mindestens 320 Cores haben.
Wie wäre es 2019 mit einer Gen 11 als discrete GPU mit 400 EUs und 3200 Shadern mit einen 256Bit GDDR6 Speicherinterface. So etwas ist problemlos möglich

redfirediablo
2017-11-09, 22:42:42
Eine GPU lässt sich nicht so einfach nach oben skalieren. Ist doch schon seit jeher so, dass AMD die Rohleistung vor allem bei den großen Chips nicht auf die Straße bringt.

Opprobrium
2017-11-09, 22:58:28
An sich dürfte das für AMD doch auch noch den Vorteil haben, dass durch den dritten Wettbewerber (je nachdem wie, wie schnell und wie erfolgreich Intel da jetzt liefert) nVidia sich weniger auf Cuda und mehr auf openCL konzentrieren müsste.

gravitationsfeld
2017-11-09, 23:05:25
Intel hat doch schon eine brauchbare GPU Architektur.
Haben sie nicht. Sie brauchen rund doppelt so viele Transistoren fuer vergleichbare Leistung.

BlacKi
2017-11-10, 17:27:07
Haben sie nicht. Sie brauchen rund doppelt so viele Transistoren fuer vergleichbare Leistung.
wie amd oder wie nvidia?

gravitationsfeld
2017-11-10, 18:50:07
Wie AMD. Verglichen mit NVIDIA ist es noch uebler.

Undertaker
2017-11-11, 01:16:32
Wie AMD. Verglichen mit NVIDIA ist es noch uebler.

Die Rechnung würde mich jetzt aber sehr interessieren. Abseits der eDRAM-Varianten verwette ich meinen Hut, das die jeweils zeitgleich erhältlichen ULV-Modelle von AMD in den letzten Jahren MEHR GPU-Transistoren bei WENIGER Gaming-Performance aufwiesen. Und zwar ganz bedeutend mehr Transistoren. Ja, AMD musste sicherlich nicht zuletzt prozessbedingt mehr in die Breite gehen, aber GCN war zuletzt auch einfach speziell im unteren Leistungsbereich wahrlich kein Effizienzmeister. Bzw. Intel in diesem speziellen Segment tatsächlich ganz brauchbar aufgestellt (wenn man nicht gerade mit den letzten Nvidia Architekturen vergleicht).
Die Skalierung >15W ist dagegen schon wieder ein anderes Thema, da besteht in der Tat noch immer ein Rückstand.

gravitationsfeld
2017-11-11, 01:31:15
Wir hatten das Thema schon zig mal und ich hoer immer den gleichen Mist von dir.

robbitop
2017-11-11, 08:04:51
Immer schön 28nm Produkte ohne edram mit 14nm (wobei intels 14nm eher tsmc/gf/samsungs 10nm enspricht) Produkten mit edram vergleichen. Und dann im restriktierten Powerenvelope. :up:
Sind ja nur 3 Fullnotes + xfache Bandbreite. Ideale Voraussetzungen also. *Ironie*
Die mArch (und um die allein ging es) lässt sich nur prozess und bandbreitennormiert betrachten. Kann man also nicht.
Man kann höchstens schauen was pro Transistor bei gleicher Bandbreite und Taktrate passiert. Und das wird garantiert nicht gut für Intels mArch ausgehen.

Schaffe89
2017-11-11, 09:10:45
Aber keine konkurrenzfähigen. :)

Als ob die integrierten Intel IGP´s gegenüber AMD´s APU´s nicht konkurrenzfähig wären.

Immer schön 28nm Produkte ohne edram

Dann nimmt Intel halt in Zukunft HBM. Der edram war teuer und lediglich ne Art Showcase dass Intel die AMD IGP´s deutlich hinter sich lassen kann.
Ja der Fertigungsvorteil war damals größer, aber auch aktuell sind die Iris IGP´s immernoch sehr schnell.
Intel hat das zugunsten der Strategie des Abwerbens von AMD wohl nicht weiter verfolgt.
So albern wie Raja AMD vertreten hat, gährt das wohl schon länger.

HOT
2017-11-11, 09:11:53
Und da kommt der nächste :freak:.
Intel braucht 3-4x soviel Fläche und bestimmt doppelt soviele Transistoren als AMDs GCN, wenn man das normiert betrachtet. Und damit ist die Lösung immer noch schlechter als GCN, vom Treiber fang ich jetzt gar nicht erst an. Das ist einfach nicht konkurrenzfähig. Die brauchen eine komplett neue Architektur, die in etwas Faktor 3 besser ist, als was sie bisher produziert haben.

Undertaker
2017-11-11, 09:36:34
Immer schön 28nm Produkte ohne edram mit 14nm (wobei intels 14nm eher tsmc/gf/samsungs 10nm enspricht) Produkten mit edram vergleichen. Und dann im restriktierten Powerenvelope. :up:
Sind ja nur 3 Fullnotes + xfache Bandbreite. Ideale Voraussetzungen also.

Bitte mehr Aufmerksamkeit beim Lesen, es ging um Modelle OHNE eDRAM. :) Und ja, ich sprach explizit von der ULV-Eignung (weil das >50% des Consumer-Marktes sind) und das dies auch nur genau hier gilt.
Aber nun Butter bei die Fische und Faktencheck, Beispielrechnung zur Situation Anfang 2016:

Broadwell GT2: 1,3 Mrd. Transistoren
Carrizo: 3,1 Mrd. Transistoren
GPU-Anteil daran: Nach Die-Shots bei AMD offensichtlich weit höher.
Mutmaßlicher Unterschied im GPU-Transistorcount: Faktor 2-3 größer bei AMD, evzl. mehr
Reale 3D-Leistung: Bestensfalls vergleichbar

Man möge diese Rechnung gern korrigieren und kommentieren, gern auch aktuellere Beispiele sofern Zahlen bekannt sind. Das grundsätzliche Ergebnis wird sich nur marginal ändern.

GCN steht in diesem Segment nicht wirklich gut da, daran ändert auch der Prozessnachteil nichts. Der nebenbei bemerkt auch gern immens übertrieben wird, gerade was die im GPU-Bereich wichtige Packdichte angeht.

AffenJack
2017-11-11, 09:37:48
Immer schön 28nm Produkte ohne edram mit 14nm (wobei intels 14nm eher tsmc/gf/samsungs 10nm enspricht) Produkten mit edram vergleichen. Und dann im restriktierten Powerenvelope. :up:
Sind ja nur 3 Fullnotes + xfache Bandbreite. Ideale Voraussetzungen also. *Ironie*
Die mArch (und um die allein ging es) lässt sich nur prozess und bandbreitennormiert betrachten. Kann man also nicht.
Man kann höchstens schauen was pro Transistor bei gleicher Bandbreite und Taktrate passiert. Und das wird garantiert nicht gut für Intels mArch ausgehen.

Die Leute vergessen immer, dass Intel mit einer viel geringeren Transistordichte baut, als es der Prozess ermöglichen würde. Ein Kaveri hat 2,4 Mrd Transistoren. Ein 4Core Skylake mit GT2 gerade mal 1,75 Mrd. Kaveri ist zwar ein gutes Stück schneller, aber wenn Skylake Kaveris Transistoranzahl gibts, dann wirds da keinen Unterschied geben. Zu Gt3 hab ich keine Zahlen gefunden und wird dann eh verfälscht mit EDRAM.

Die Architekturen nehmen sich in der Perf/Transistor eben nichts und Perf/W ist unmöglich zu vergleichen wegen der Prozesse. Gravitationsfeld sollte eben nicht Behauptungen aufstellen, die völlig aus der Luft gegriffen sind.

BlacKi
2017-11-11, 09:49:28
Bitte mehr Aufmerksamkeit beim Lesen, es ging um Modelle OHNE eDRAM. :) Und ja, ich sprach explizit von der ULV-Eignung (weil das >50% des Consumer-Marktes sind) und das dies auch nur genau hier gilt.
Aber nun Butter bei die Fische und Faktencheck, Beispielrechnung zur Situation Anfang 2016:

Broadwell GT2: 1,3 Mrd. Transistoren
Carrizo: 3,1 Mrd. Transistoren
GPU-Anteil daran: Nach Die-Shots bei AMD offensichtlich weit höher.
Mutmaßlicher Unterschied im GPU-Transistorcount: Faktor 2-3 größer bei AMD, evzl. mehr
Reale 3D-Leistung: Bestensfalls vergleichbar

Man möge diese Rechnung gern korrigieren und kommentieren, gern auch aktuellere Beispiele sofern Zahlen bekannt sind. Das grundsätzliche Ergebnis wird sich nur marginal ändern.

GCN steht in diesem Segment nicht wirklich gut da, daran ändert auch der Prozessnachteil nichts. Der nebenbei bemerkt auch gern immens übertrieben wird, gerade was die im GPU-Bereich wichtige Packdichte angeht.

zur fairness muss gesagt werden das beide ungefähr gleichschnell sind , aber der gt2 chip fast doppelt so hoch boostet.

btw: ich sehe gt2 chip mit 1,89mio und den carizzo mit 2,4mio transen? somit würde beim transistorcount vs leistung wieder amd vorne liegen, auch wenn nicht 3fach XD

fondness
2017-11-11, 10:06:12
Die Leute vergessen immer, dass Intel mit einer viel geringeren Transistordichte baut, als es der Prozess ermöglichen würde. Ein Kaveri hat 2,4 Mrd Transistoren. Ein 4Core Skylake mit GT2 gerade mal 1,75 Mrd. Kaveri ist zwar ein gutes Stück schneller, aber wenn Skylake Kaveris Transistoranzahl gibts, dann wirds da keinen Unterschied geben. Zu Gt3 hab ich keine Zahlen gefunden und wird dann eh verfälscht mit EDRAM.

Die Architekturen nehmen sich in der Perf/Transistor eben nichts und Perf/W ist unmöglich zu vergleichen wegen der Prozesse. Gravitationsfeld sollte eben nicht Behauptungen aufstellen, die völlig aus der Luft gegriffen sind.

Der korrekte Vergleich wäre Perf/mm² Prozessnormiert. Perf/Transistor ist wertlos, denn man zahlt für die mm² auf dem Wafer. Hier liegt Intel völlig unter ferne liefern. Warum Intel die Transistoren nicht enger packen kann oder will wird schon seine Gründe haben. Intel schafft mit 14nm nicht mal die Transitorendichte von AMD in 28nm. Auch die Perf/Watt ist angesichts des Prozessvorteils schwach. Aber das wird ja Raven Ridge bald wesentlich deutlicher aufzeigen.

Um die Liste von Undertaker zu vervollständigen:
Broadwell GT2: 1,3 Mrd. Transistoren, 14nm FinFET, 177mm²(?)
Carrizo: 3,1 Mrd. Transistoren, 28nm bulk, 246mm²

BlacKi
2017-11-11, 10:12:55
Der korrekte Vergleich wäre Perf/mm² Prozessnormiert.
sry, aber für einen vergleich der leistung pro transistor ist das komplett uninteressant. die fertigung ändert nur den maximalen takt der anliegen kann, den verbrauch und was ein chip kostet. für die einschätzungen die wir machen wollen brauchen wir keine gleichen fertigungsprozesse.

Undertaker
2017-11-11, 10:13:23
Wenn dann bitte Perf/(mm2 × Watt). Und da liegt leider eher GCN auf verlorenem Posten, jedenfalls im 15W Segment.

Ich gebe allerdings auch AffenJack recht: Ohne identischen Prozess bleibt vieles eine grobe Abschätzung bis Spekulation. Ich hätte ja gern einen Coffee Lake mit Pascal IP gesehen... ;)

@Fondness: Das Thema Transistordichte ist genau ein Grund dafür, das Ausmaß das Fertigungseinflusses GPU-seitig deutlich zurückhaltender zu werten. Breiter und langsamer zu bauen steigert hier einfach maßlos die Effizienz.

fondness
2017-11-11, 10:19:12
sry, aber für einen vergleich der leistung pro transistor ist das komplett uninteressant. die fertigung ändert nur den maximalen takt der anliegen kann, den verbrauch und was ein chip kostet. für die einschätzungen die wir machen wollen brauchen wir keine gleichen fertigungsprozesse.

Die Leistung/Transistor ist nur ein völlig ungeeigneter Vergleich, wenn ein Teilnehmer mindestens doppelt so dicht packt wie der andere. Perf/Transistor ist zudem ein völlig akademischer Vergleich, denn man zahlt für die mm² auf dem Wafer.

fondness
2017-11-11, 10:22:02
Breiter und langsamer zu bauen steigert hier einfach maßlos die Effizienz.

Warum macht es dann Intel nicht? ;)
Sie brauchen in 14nm eine ähnliche Fläche wie AMD in 28nm und sind nur wegen der TDP-Limits (wo der Fertigungsvorsprung natürlich voll durchschlägt) überhaupt konkurrenzfähig. Das wird Raven Ridge sehr deutlich aufzeigen :)

Außerdem fertigen sie mehrere Dies vs. einem Die von AMD, das alles abdecken muss. Das bedeutet für AMD natürlich erheblich Effizienzeinbußen in den Randbereichen <=15W. Ein GT2-Die @>=45W ist völlig chancenlos GPU-seitig, wie man ja am Desktop sieht.

BlacKi
2017-11-11, 10:28:34
Die Leistung/Transistor ist nur ein völlig ungeeigneter Vergleich, wenn ein Teilnehmer mindestens doppelt so dicht packt wie der andere. Perf/Transistor ist zudem ein völlig akademischer Vergleich, denn man zahlt für die mm² auf dem Wafer.
das war aber die ursprüngliche fragestellung nunmal.

was hilft einem die packdichte, wenn alles andere den bach runter geht? wenn man alles auf packdichte setzt hat man doch gesehen wo das hinführt. was packdichte angeht ist amd meister, aber es ist trotzdem lächerlich was am ende dabei rauskommt.

robbitop
2017-11-11, 10:29:31
Transistor, Bandbreiten UND Taktnormiert. Die Intel IGPs können dank 3 fullnodes Vorsprung massivst höher takten.

danarcho
2017-11-11, 15:40:20
Die Intel IGPs können dank 3 fullnodes Vorsprung massivst höher takten.
Merkt man voll, dass das einzig am Prozess liegt. Deshalb taktet auch Nvidia höher als AMD und Bulldozer höher als Intel Core, ist halt so geiler Prozess.
Intel hat sich leider zurückentwickelt:
Sandybridge: 1350Mhz
Ivy Bridge: 1300Mhz
Haswell: 1350Mhz
Skylake: 1150Mhz
Kaby Lake: 1150Mhz
Coffee Lake: 1200Mhz
Alles jeweils max Boosttakt der GT2.

Was die Effizienz pro (normierter) Chipfläche angeht, muss ich nachher mal suchen. Ich bezweifle aber sehr stark, dass Intel hier deutlich schlechter abschneiden soll. Im Gegenteil, die benutzen recht viel fixed function, was eigentlich effizienter sein sollte. Dafür waren die ja auch lange nicht sinnvoll programmierbar.

robbitop
2017-11-11, 17:58:33
Das eine sind sehr hohe Maximaltaktraten und das andere sind geringe Taktraten aus Gründen der TDP. AMDs APUs takten in der Praxis wg Powerlimit (mobile) auf ~500 MHz runter obwohl deren GPU IP bis deutlich über 1000 MHz hergibt. Also bitte nicht Äpfel mit Birnen vergleichen.

deekey777
2017-11-11, 19:19:21
Das eine sind sehr hohe Maximaltaktraten und das andere sind geringe Taktraten aus Gründen der TDP. AMDs APUs takten in der Praxis wg Powerlimit (mobile) auf ~500 MHz runter obwohl deren GPU IP bis deutlich über 1000 MHz hergibt. Also bitte nicht Äpfel mit Birnen vergleichen.
Und wenn dabei noch die CPU-Module mit 1,1 GHz laufen, dann dürfte selbst der letzte kapieren, dass die Grafikeinheit mit angezogener Bremse laufen.

danarcho
2017-11-11, 19:59:22
Reden wir plötzlich über mobile?!
Es ging um die Leistung pro Fläche bei theoretisch gleichem Prozess.
Man kann das tatsächlich zur Zeit extrem schlecht vergleichen, da AMD bisher nur bis 28nm baut und Intel 14nm. Hab versucht mit Sandybridge zu vergleichen, aber das geht auch nicht gut.
Carrizo/BR haben 3,1Mrd Transistoren auf 250mm².
Skylake 2+2 hat 1,75Mrd Transistoren auf knapp 100mm².
Bei AMD braucht die GPU ca. 40% und bei Intel 45% (Beides grob geschätzt.)
Bei Anandtech habe ich noch gefunden, dass die CPU sachen bei AMD <700Mio Transistoren sind, was mich aber wundert, da dann die GPU mega gequetscht sein müsste.
8 CU von BR sind etwas schneller als die 24 EU der HD 630. Das bedeutet vermutlich, dass die AMD Implementierung etwas effizienter mit der Fläche umgeht, aber wir reden hier nicht um den Faktor 2 oder 3 wie manche suggerieren.
Mit RR sehen wir noch, wieviel AMD aus der besseren Fertigung machen kann.

Rooter
2017-11-11, 21:08:07
Wenn Intel konkurenzfähige GPUs hinkriegt (was noch viele Jahre dauern wird, allein die Treiberseite :rolleyes:) werden wir evt. in der PlayStation 6 oder 7 eine CPU+GPU von Intel sehen. :uponder:
DAS wäre mal bitter für AMD... X-D

MfG
Rooter

robbitop
2017-11-11, 21:17:06
Reden wir plötzlich über mobile?!
Es ging um die Leistung pro Fläche bei theoretisch gleichem Prozess.
Man kann das tatsächlich zur Zeit extrem schlecht vergleichen, da AMD bisher nur bis 28nm baut und Intel 14nm. Hab versucht mit Sandybridge zu vergleichen, aber das geht auch nicht gut.
Carrizo/BR haben 3,1Mrd Transistoren auf 250mm².
Skylake 2+2 hat 1,75Mrd Transistoren auf knapp 100mm².
Bei AMD braucht die GPU ca. 40% und bei Intel 45% (Beides grob geschätzt.)
Bei Anandtech habe ich noch gefunden, dass die CPU sachen bei AMD <700Mio Transistoren sind, was mich aber wundert, da dann die GPU mega gequetscht sein müsste.
8 CU von BR sind etwas schneller als die 24 EU der HD 630. Das bedeutet vermutlich, dass die AMD Implementierung etwas effizienter mit der Fläche umgeht, aber wir reden hier nicht um den Faktor 2 oder 3 wie manche suggerieren.
Mit RR sehen wir noch, wieviel AMD aus der besseren Fertigung machen kann.
Auch bei DT APUs taktet intels igp höher. Ab RR wird das ganze (ohne edram!) deutlich vergleichbarer.

Blediator16
2017-11-12, 00:18:06
Wenn Intel konkurenzfähige GPUs hinkriegt (was noch viele Jahre dauern wird, allein die Treiberseite :rolleyes:) werden wir evt. in der PlayStation 6 oder 7 eine CPU+GPU von Intel sehen. :uponder:
DAS wäre mal bitter für AMD... X-D

MfG
Rooter

Hast recht AMD wird ab jetzt nichts mehr entwickeln und evtl. neue Märkte werden sie auch nicht ergründen :freak:

scully1234
2017-11-12, 00:44:19
Mit was Pflastersteinen ,oder mit Kapitalpolstern ,die seit Jahren rückläufig sind?

Viel zu veräußern hat man nicht mehr, will man ein ähnliches R&D Budget auf die Beine stellen, was dann in Produkten fruchtet, die sich mit denen der Mitbewerber im Markt behaupten können

Irgendwie kommt das immer so rüber, als wäre der Teil für AMD ein Klacks ,was er zusehends aber nicht mehr ist.

Mit Sprüchen wie poor Volta, ist noch lange kein vernünftiges Produkt entwickelt

Und auch wenn man Intel immer Dummheit u Trägheit attestiert , den finanziellen Aspekt räumt das bei weiten noch nicht aus dem Weg, und der wiegt bei weiten schwerer

Opprobrium
2017-11-12, 00:53:26
Naja, jetzt sieht es ja gearde so aus, als dürfte AMD die Kapitalpolster wieder etwas aufstocken.

Und Intel würde sich wohl kaum mit so geringen Margen zufrieden geben wie AMD wenn es um Konsolenchips geht ;)

scully1234
2017-11-12, 00:55:47
Da geht es erstmal nur um Marktanteile, eine einfache Rechnung für Intel, und sie nehmen ja nicht nur den Konsolenbereich ins Visier.

Nvidia (AI ,selfdriving Cars, Datacenter ec pp) das dürften Intels Hauptinteressen sein, mit enormen Wachstumspotential

Loeschzwerg
2017-11-14, 10:01:26
War absehbar, aber jetzt ist die Katze wenigstens aus dem Sack:
https://www.computerbase.de/2017-11/intel-xeon-phi-knights-hill-eingestellt/

gmb
2018-01-12, 22:38:47
https://jpmorgan.metameetings.net/events/ces18/sessions/13981-intel-corporation/webcast

Gregory M. Bryant bestätigt dort im Webcast quasi, dass Intel an diskreten GPUs arbeitet und äußert sich zur Rolle von Raja (ab 25:30), ohne ins Detail zu gehen. Es gibt Gerüchte, dass Intel schon länger Pläne für diskrete GPUs verfolgt, die erste diskrete von Intel würde wohl ohne Einfluss von Raja entstehen. Bis zur Gen12 dürfte Raja keinen Einfluss am GPU Design haben. Auch die KBL-G Kombi mit AMD dürfte nur vorübergehend sein.

Übrigens stockt Intel die Gen11 in Icelake massiv auf. Laut der ersten Patchserie (https://patchwork.freedesktop.org/patch/197147/) wird das ein Design mit 8 sublices in einem slice. Zum Vergleich, Skylake Gen9 besitzt lediglich 3 subslices in einem slice. Das würde, vorausgesetzt Intel bleibt bei 8 EUs pro subslice, 64 EUs für eine GT2 mit einem slice ergeben. Selbst Cannonlake Gen10 wäre nur mit 5 subslices gekommen. Schon bei der Gen7 Vorstellung hat Tom Piazza damals die Skalierbarkeit hervorgehoben.

mczak
2018-01-13, 04:47:01
Übrigens stockt Intel die Gen11 in Icelake massiv auf. Laut der ersten Patchserie (https://patchwork.freedesktop.org/patch/197147/) wird das ein Design mit 8 sublices in einem slice. Zum Vergleich, Skylake Gen9 besitzt lediglich 3 subslices in einem slice. Das würde, vorausgesetzt Intel bleibt bei 8 EUs pro subslice, 64 EUs für eine GT2 mit einem slice ergeben. Selbst Cannonlake Gen10 wäre nur mit 5 subslices gekommen. Schon bei der Gen7 Vorstellung hat Tom Piazza damals die Skalierbarkeit hervorgehoben.
Die max subslice sind ja das Maximum das möglich ist - heisst ja jetzt noch nicht dass alle Chips das Maximum haben werden. Auch bei AMD variiert ja analog die Anzahl der CUs pro Shader Engine. Da kann man also imho noch nicht so viel daraus herleiten.
Prinzipiell denke ich aber schon dass man eine deutliche Erhöhung der Anzahl Shadereinheiten (wie auch immer die dann angeordnet sein werden) sehen wird. Seit Kabylake erreicht ja auch GT2 bei den 15W GPUs mehr oder weniger den Maximaltakt in der Praxis, was aus Energieeffizienzgründen vermutlich eh schon nicht optimal ist, und 10nm+ ist sicher eine ganze Ecke effizienter, abgesehen davon dass man natürlich auch bei derselben Chipgrösse mehr Einheiten unterbringen kann. 64 EUs wäre da wohl keine schlechte Zahl, rein von der Rechenleistung her wäre aber selbst RR immer noch deutlich voraus (angenommen die EUs leisten noch dasselbe, von den Flops her entsprechen 64 EUs 8 CUs), vom Nachfolger ganz zu schweigen.

gmb
2018-01-13, 10:57:15
Die max subslice sind ja das Maximum das möglich ist - heisst ja jetzt noch nicht dass alle Chips das Maximum haben werden.


Die subslices unterscheiden sich nicht, egal ob GT4 oder GT2. Nach oben oder unten skaliert Intel mit der Anzahl der Scheiben. Intel hat aber in der Vergangenheit EUs in den subslices deaktiviert bei bestimmten Modellen. Zum Beispiel bei der Coffeelake U GT3 wird es SKUs mit 48 und 42 EUs geben, an den 3 subslices ändert sich daran nichts. Das ist was anderes.


64 EUs wäre da wohl keine schlechte Zahl, rein von der Rechenleistung her wäre aber selbst RR immer noch deutlich voraus (angenommen die EUs leisten noch dasselbe, von den Flops her entsprechen 64 EUs 8 CUs), vom Nachfolger ganz zu schweigen.


Mit einer GT3 wären es in dem Fall schon 128 EUs, da würde RR nicht mehr mitkommen.

Pirx
2018-01-13, 11:08:45
...
Mit einer GT3 wären es in dem Fall schon 128 EUs, da würde RR nicht mehr mitkommen.
in 15W vielleicht doch:ulol:

deekey777
2018-01-13, 12:26:37
Mit einer GT3 wären es in dem Fall schon 128 EUs, da würde RR nicht mehr mitkommen.
Ach komm, wenn schon, dann mindestens 256 EUs. Die Entwicklung zeigt ja, dass Intel seit Broadwell massiv Grafikleistung ausbaut und GT3 überall verbaut wird.

mczak
2018-01-13, 13:38:04
Die subslices unterscheiden sich nicht, egal ob GT4 oder GT2. Nach oben oder unten skaliert Intel mit der Anzahl der Scheiben. Intel hat aber in der Vergangenheit EUs in den subslices deaktiviert bei bestimmten Modellen. Zum Beispiel bei der Coffeelake U GT3 wird es SKUs mit 48 und 42 EUs geben, an den 3 subslices ändert sich daran nichts. Das ist was anderes.

Schon klar dass intel die Anzahl der subslices in HW bisher nicht skaliert hat, aber das heisst ja nicht unbedingt dass das so bleiben muss. Wahrscheinlich ist das aber wohl tatsächlich nicht.


Mit einer GT3 wären es in dem Fall schon 128 EUs, da würde RR nicht mehr mitkommen.

Dass die 64 EUs hinter RR liegen war erstmal eine theoretische Betrachtung, gerade bei den 15W Modellen wird es darauf ankommen wie energieeffizient das Ganze ist. Trotzdem denke ich der Trend ist klar, man verbaut breitere GPUs - da hat sich seit Broadwell ja auch nichts getan. 128 EUs wären aber schon eine ganze Menge.

fondness
2018-01-13, 13:40:35
Mit einer GT3 wären es in dem Fall schon 128 EUs, da würde RR nicht mehr mitkommen.

Selbst wenn, bis Ice Lake kommt hat RR wohl schon einen Nachfolger.

gmb
2018-01-13, 13:59:42
Selbst wenn, bis Ice Lake kommt hat RR wohl schon einen Nachfolger.


Das Problem ist nur, dass Intel deutlich mehr Potenzial hat. Mehr Potenzial bei der Fläche, CFL 6C ist mit GPU lächerliche 149 mm² groß, und mittlerweile mehr Potenzial bei der GPU, da Intel immer noch mit der Gen9 aus dem Jahr 2015 am Start ist. Auch beim Problem der Bandbreite traue ich Intel mehr Innovationen zu. So schnell wird auch kein RR Nachfolger kommen, für Notebooks geht es jetzt erst so langsam los, während der Desktop noch auf RR wartet. Da wird so schnell nichts passieren. Und Intels 10nm refesh Tigerlake kommt schon mit Gen12.

fondness
2018-01-13, 14:48:59
Intel entwickelt GPUs seit über 20 Jahren. Das Ergebnis ist angesichts der enormen finanziellen Ressourcen eigentlich ein einziges Fiasko. Man wird sehen, ob sich das in Zukunft ändert, aber man hat schon oft geglaubt, das in Zukunft alles besser wird. Potential ist ein schönes Wort, klar wenn man weit hinten liegt hat man mehr Potential. Aber sie brauchen schon enorme Verbesserungen, um auch nur mit RR gleichzuziehen. Der echte RR-Nachfolger (und damit meine ich keinen Refresh) wird 6 Monate nach Navi mit Navi und Zen2 kommen, also Ende 2019.

Loeschzwerg
2018-01-13, 15:28:28
Das Ergebnis ist angesichts der enormen finanziellen Ressourcen eigentlich ein einziges Fiasko.

Intel hat es nach dem i740 auch nicht mehr wirklich versucht. "Larrabee" war ein interessantes neues Konzept, hat aber einfach nicht in die vorhanden Welt der Grafikkarten gepasst.

Ab Gen5 haben sich die IGPs in meinen Augen prächtig entwickelt, gerade hinsichtlich Office-Tauglichkeit.

Mittlerweile halten Grafikprozessoren für deutlich mehr Gebiete her als nur 3D-Darstellung und damit ist auch ein wesentlicher Druck von Seiten des Marktes vorhanden. Das könnte richtig spannend werden.

Kriton
2018-01-13, 17:26:02
Die Frage ist sicher auch, welche Möglichkeiten sie haben bei der Patentsituation.

Loeschzwerg
2018-01-13, 18:00:38
Warum soll es ausgerechnet dort Probleme geben? Und selbst wenn da irgendein Patentbesitzer was meckern sollte, solche Klagen können Ewigkeiten dauern und dann wird sich doch eh irgendwie geeinigt. Probleme haben hier nur kleine Firmen ohne den finanziellen Hintergrund.

Kriton
2018-01-13, 18:02:33
Je nachdem wie offensichtlich das Patent, respektive die Verletzung ist. Ich würde mal vermuten, dass AMD und Nvidia dort auf einer Reihe von Patenten sitzen, die es schwierig machen könnten eine "vernünftige" GPU zu designen, die auf deren Level mitspielt.

Brillus
2018-01-13, 18:25:56
Je nachdem wie offensichtlich das Patent, respektive die Verletzung ist. Ich würde mal vermuten, dass AMD und Nvidia dort auf einer Reihe von Patenten sitzen, die es schwierig machen könnten eine "vernünftige" GPU zu designen, die auf deren Level mitspielt.
Denk dran das Intel z.b. alle Patente von NV auch weiterhin verwenden darf, die es bis zum Ende des Lizenzabkommen gabts

Kriton
2018-01-13, 18:36:04
Du hast recht, das hatte ich nicht im Blick.

gmb
2018-01-14, 23:03:07
Es gibt Gerüchte, dass Intel schon länger Pläne für diskrete GPUs verfolgt, die erste diskrete von Intel würde wohl ohne Einfluss von Raja entstehen. Bis zur Gen12 dürfte Raja keinen Einfluss am GPU Design haben. Auch die KBL-G Kombi mit AMD dürfte nur vorübergehend sein.



Kleines Update dazu.


Intel's Gen. 12-based discrete GPU is code-named "Arctic Sound." Will connect to Intel processors via EMIB.

Intel's Gen. 13-based discrete GPU is code-named "Jupiter Sound."
https://twitter.com/TMFChipFool/status/952649312479203331
https://twitter.com/TMFChipFool/status/952650669839839233


Gen12 ist auch schon länger im Treiber. Das wäre auf Basis der Tigerlake Generation.

MadManniMan
2018-01-14, 23:06:56
Welche ist die aktuelle? Generation 10?

dildo4u
2018-01-14, 23:08:32
9 Gen.

https://en.wikipedia.org/wiki/List_of_Intel_graphics_processing_units#Ninth_generation

gmb
2018-01-14, 23:15:18
Die Sprünge sind dann schneller mit den 10nm Generationen, weil Gen9 2015 Technologie ist und Intel die 10nm refresh Gens besser plant.

deekey777
2018-01-15, 13:33:45
Kleines Update dazu.



https://twitter.com/TMFChipFool/status/952649312479203331
https://twitter.com/TMFChipFool/status/952650669839839233


Gen12 ist auch schon länger im Treiber. Das wäre auf Basis der Tigerlake Generation.

Die Frage ist, ob Intel einen Schritt weitermacht und abseits mobilen Markts Grafikkarten mit eigener GPU anbietet (wäre sehr gewagt).

ndrs
2018-01-15, 13:57:44
Die Frage ist, ob Intel einen Schritt weitermacht und abseits mobilen Markts Grafikkarten mit eigener GPU anbietet (wäre sehr gewagt).
Wenn sie wirklich konkurrenzfähig sind, was Performance pro Fläche und Performance pro Watt angeht, wäre das nur logisch. Zumindest, wenn die Architektur hinreichend nach oben skaliert. Der Schritt zum XeonPhi-Nachfolger sollte dann auch überschaubar sein. Das wäre auch eine weitere Option, die Fabs weiter auszulasten.

AffenJack
2018-01-15, 14:19:26
Die Frage ist, ob Intel einen Schritt weitermacht und abseits mobilen Markts Grafikkarten mit eigener GPU anbietet (wäre sehr gewagt).

Was wäre daran gewagt? Wenn man den diskreten Chip sowieso schon entwickelt hat, hat man den Großteil der Kosten eh schon getragen. Der Schritt das Ding dann als seperate GPU zu bringen ist nur noch sehr klein und wäre nur durch sehr schlechte Konkurenzfähigkeit zu begründen.

mboeller
2018-01-15, 16:19:40
und ihr kauft dann alle die Intel GPUs mit vergleichsweise bescheidenem Treiber? Glaub ich nicht. Ihr meckert ja schon bei AMD.

maguumo
2018-01-15, 16:35:32
Was der Einzugskreis von derartigen Foren kauft dürfte für die Marktdurchdringung relativ egal sein. Wenn eine derartige Karte halbwegs Konkurrenzfähig wäre würde Intel die bestimmt an OEMs durchdrücken können. Die Treiber reifen dann nach.

gravitationsfeld
2018-01-15, 17:47:53
Zugegebenermassen hat Intel bisher wirklich noch nie gute Software geliefert. Das ist einfach nicht ihre DNA. Da muesste sich intern einiges aendern.

deekey777
2018-01-15, 18:02:13
Intel hat bei 10 nm sehr glückliches Händchen bewiesen, bis Gen 12 und 13 veröffentlicht sind, dauert es.

Es macht aber einen gewaltigen Unterschied, ob es eine richtige Grafikkarte als Steckkarte oder ein Grafikchip, der zusammen mit der eigenen CPU verkauft wird.

LadyWhirlwind
2018-01-15, 18:32:29
Es geht Intel sowieso nicht um Grafik...

Machine Learning, HPC etc. ist das Ziel.

BoMbY
2018-01-15, 18:35:10
Das würde ich nicht behaupten, dass es nur um Compute geht, auch wenn das sicher ein wichtiger Faktor ist. Und das Treiberproblem sollte sich auch weitestgehend lösen lassen bis die Produkte fertig sind - wenn man ein paar schlaue Köpfe findet, und denen ausreichend Geld gibt.

Es wird aber sicher noch ein bis zwei Jahre dauern, bis man da irgendwas brauchbares sehen wird. Und wie immer gilt: Wait for Benchmarks.

LadyWhirlwind
2018-01-15, 18:44:49
Das würde ich nicht behaupten, dass es nur um Compute geht, auch wenn das sicher ein wichtiger Faktor ist. Und das Treiberproblem sollte sich auch weitestgehend lösen lassen bis die Produkte fertig sind - wenn man ein paar schlaue Köpfe findet, und denen ausreichend Geld gibt.

Es wird aber sicher noch ein bis zwei Jahre dauern, bis man da irgendwas brauchbares sehen wird. Und wie immer gilt: Wait for Benchmarks.


Um was geht es Intel denn?

Das Geschäft mit den iGPU‘s ist eine nette dreingabe, rechtfertigt mMn aber nicht die Ausgaben.

Loeschzwerg
2018-01-15, 18:52:13
und ihr kauft dann alle die Intel GPUs mit vergleichsweise bescheidenem Treiber? Glaub ich nicht. Ihr meckert ja schon bei AMD.

Ich sehe hier schon gar nicht mehr so den großen Unterschied. Ja, die Optimierung auf neue Spiele dauert noch länger bzw. ist abhängig davon ob diese überhaupt in das Budget der aktuellen IGPs passen. Aber sonst kann man nicht viel meckern.

Hübie
2018-01-15, 19:14:26
Das klügste, was Intel machen kann ist eine hoch skalierbare Architektur mit Genen auf dem Bereich HPC, DL/ML, mobile und natürlich gaming. Kurz: NVIDIA kopieren. Pascal war die erste Generation wo die SMs von allen Marktsegmenten innerhalb eines Jahres genutzt und benutzt wurden. Intel täte also gut daran diese Modulbauweise zu kopieren. :smile: Ich wünsche mir einen cleveren Manager und ein fähiges Softwareteam (Treiber). Eine der beiden Variablen wird wahrscheinlich durch die 50%-Regel nicht eintreffen...

fondness
2018-01-15, 19:37:47
Kleines Update dazu.



https://twitter.com/TMFChipFool/status/952649312479203331
https://twitter.com/TMFChipFool/status/952650669839839233


Gen12 ist auch schon länger im Treiber. Das wäre auf Basis der Tigerlake Generation.

Wann soll Tigerlake kommen? 2019? Oder gar 2020?

Brillus
2018-01-15, 20:22:16
Um was geht es Intel denn?

Das Geschäft mit den iGPU‘s ist eine nette dreingabe, rechtfertigt mMn aber nicht die Ausgaben.
Seh ich ganz anders, ohne IGP bei Intel würden viel mehr AMD Sachen verkauft, im ganzen Officebereich sind IGP sehr nett für OEMs.

LadyWhirlwind
2018-01-15, 22:18:02
Seh ich ganz anders, ohne IGP bei Intel würden viel mehr AMD Sachen verkauft, im ganzen Officebereich sind IGP sehr nett für OEMs.

Klar, ohne iGPU geht es nicht, aber ich glaube kaum das Intel Kodouri geholt hat um eine Office CPU zu entwickeln. Dafür brauchen Sie ihn nicht.

Stellt sich die Frage was er da macht?

Brillus
2018-01-15, 22:21:09
Klar, ohne iGPU geht es nicht, aber ich glaube kaum das Intel Kodouri geholt hat um eine Office CPU zu entwickeln. Dafür brauchen Sie ihn nicht.

Stellt sich die Frage was er da macht?
Ah ich glaub ich hab dich falsch verstande, dachte du meinst die bereits getätigten Ausgaben nicht die neuen.

LadyWhirlwind
2018-01-15, 22:37:43
Ah ich glaub ich hab dich falsch verstande, dachte du meinst die bereits getätigten Ausgaben nicht die neuen.

Nein, wir sind doch im Speku-Forum, was interessieren mich da vergangene Ausgaben ;)

Wenn Intel Geld in die Hand nimmt - und für etwas habne Sie ja Kodouri geholt - dann entwickeln Sie mit Blick auf Machine Learning, HPC etc.

gmb
2018-01-16, 00:41:47
Es geht Intel sowieso nicht um Grafik...



Arctic Sound und Jupiter Sound sind die Nachfolger von Vega in KBL-G, natürlich geht es da um Grafik. Apple fordert mehr Grafik sicher nicht für machine learning. Wenn es Intel nicht um Grafik geht, hätten sie KBL-G mit AMD Grafik gar nicht erst aufgelegt. Und Intel muss sich schon sicher sein, dass sie KBL-G (deutlich) schlagen, sonst würde das kein Sinn machen.

mboeller
2018-01-16, 07:14:19
Klar, ohne iGPU geht es nicht, aber ich glaube kaum das Intel Kodouri geholt hat um eine Office CPU zu entwickeln. Dafür brauchen Sie ihn nicht.

Stellt sich die Frage was er da macht?

Yep. Aber "eine Schwalbe macht noch keinen Sommer" und so gut waren seine Projekte bei AMD (RX 4xx; RX 5xx; Vega) auch wieder nicht das man ihn mit Leuten wie Keller in einen Topf schmeißen könnte (IMHO!)

Bisher hat sich Intel bei GPUs ja nicht wirklich mit Ruhm bekleckert um es mal sehr nett zu formulieren. Jedes Mal die gleiche Argumentation, Intel der Gigant wird alle anderen zertreten wenn sie erst mal was auf den Markt bringen. Hat bisher nie geklappt, weder beim i810 noch beim Larabee noch bei anderen GPU-Sachen. Sie werden besser, aber IMHO sehr langsam und schleichend.

Also abwarten und Tee rauchen.

deekey777
2018-01-16, 09:10:00
Intel geht es nicht um die Grafik oder ähnliches, es geht um Marktanteile und Image. Mit KBL-G baut Intel in erster Linie seinen Ruf auf - auf Kosten von AMD. Und das hat den wichtigen Vorteil, dass Intel bei den OEMs mit seinem Namen hofieren wird und so alles aus einer Hand liefern. Vielleicht schon nächstes Jahr werden Kunden nicht zwischen Intel-CPU und AMD-Grafik unterscheiden, alles ist ja von Intel. Und wenn die eigenen Grafikchips fertig sind, wird Intel das, was sie mit Vega M aufgebaut haben, mitnehmen.

BoMbY
2018-01-16, 09:46:30
Ich möchte nur nochmal das Zitat (https://newsroom.intel.com/news-releases/raja-koduri-joins-intel/) in Erinnerung rufen:


We have exciting plans to aggressively expand our computing and graphics capabilities and build on our very strong and broad differentiated IP foundation. With Raja at the helm of our Core and Visual Computing Group, we will add to our portfolio of unmatched capabilities, advance our strategy to lead in computing and graphics, and ultimately be the driving force of the data revolution.

Windi
2018-01-17, 09:45:14
Man sollte vielleicht auch an EMIB denken.

Es wäre möglich, das Intel solche GPUs entwickelt, um sie möglichst leicht mit ihren CPUs zu koppeln.
Für eine Grafikkarte bräuchte man dann halt einen Brückenchip, der nach PCI Express wandelt. Aber das passt zu Intels Strategie, der Modularen Chips.
Mit EMIB kann Intel mit nur wenigen DIEs möglichst viele Märkte bedienen. Vielleicht einen sehr kleinen, den man an jede Office-CPU anflanschen kann, dazu noch einen mittelgroßen (200-300mm2) und einen großen (400-600mm2). Die beiden Kleineren könnte man gut mit der CPU kombinieren. Und den Größeren mehrfach auf eine Grafikkarte verbauen, um möglichst viel Leistung für den professionellen Bereich zu bekommen. Ob das so gut für HighEnd-Spielekarten ist weiß ich nicht, aber da muss Intel auch erst einmal zeigen, das sie gute Treiber schreiben können.

Ganon
2018-01-17, 10:11:07
Die Linux-Treiber sind vergleichsweise super. Intel kann also, wenn sie denn wollen. Ist vermutlich eine Frage der Ressourcen die jeder Zweig bekommt. Das Linux-Team bekommt halt Tests, Reviews und Patches for-free, dadurch dass der Kram Open Source ist und Piglit Tests halt eben für alle da sind.

Wie groß das Windows Team ist und wie viele Ressourcen sie für Testing und Co. haben... das ist eben die Frage.

deekey777
2018-01-17, 10:19:11
Bei 24 bzw. 48 EUs ist auch kein besonders großes Windows-Team notwendig. X-D

Wenn sie aber ein leistungsstarkes Paket auf den Markt bringen, brauchen sie viel Personal, das nicht nur Treiber so schnell wie möglich schreibt, sondern auch mit Spieleentwicklern zusammenarbeitet und diese unterstützt.

Haben die aktuellen Grafikchips von Intel ein Ungleichgewicht TEX:ALU?

Ganon
2018-01-17, 10:24:47
Bei 24 bzw. 48 EUs ist auch kein besonders großes Windows-Team notwendig. X-D

Wenn sie aber ein leistungsstarkes Paket auf den Markt bringen, brauchen sie viel Personal, das nicht nur Treiber so schnell wie möglich schreibt, sondern auch mit Spieleentwicklern zusammenarbeitet und diese unterstützt.

Es gibt auf dem Markt noch weit mehr Anwendungsgebiete als die Standard-Spieleentwickler. Und gerade wenn man diesen Bereich betritt, dann fangen recht schnell alle Treiber an zu stinken. Als Spieler kriegt man das halt nur nicht so mit, weil eben der Treiber für die Spiele schon im Vorfeld gefixt wurde oder kurz darauf.

Und das meine ich ja mit Ressourcen. Wenn das Treiber-Team keine hat, dann kannst du auch nicht viel rumtesten oder (Spiele-)Entwickler unterstützen oder Bugreports bearbeiten. Vollkommen egal wie leistungsfähig deine Hardware ist

Windi
2018-01-17, 10:32:13
Bei den Treibern ging es mir vor allem um die Spielefähigkeit. Dabei haben ja selbst AMD und Nvidia noch ab und zu Probleme. Vor allem muss man auch seine Leute zu den Spieleentwicklern schicken.

Vor allem ging es mir aber auch darum, mehrere DIEs mittels EMIB zusammen zu schalten. Im professionellen Bereich mit der passenden Software ist das sicherlich einfacher als im Spielebereich. Schon AMD und Nvidia haben sich mit SLI und Crossfire echt schwer getan. EMIB bietet sicherlich mehr Bandbreite und bessere Latenzen, aber dennoch ist das eine erhebliche Herausforderung. Das kann nur gelingen, wenn Intel da genug Geld und Personal hinein steckt.

BoMbY
2018-01-17, 13:12:09
Das Problem sind nicht die Treiber - das Problem sind oft die Spiele (-Engines). Die Entwickler sind halt oft überfordert, und das nutzt NVidia zum Teil gnadenlos aus, mit ihrem GameMurks und Entwicklern welche die zum "Optimieren" ausleihen, und natürlich Geld.

Aber wenn Intel sagt sie wollen "Aggressiv Expandieren", dann heißt das die sind bereit eine Menge Geld da rein zu werfen - ich würde sagen, bei 60 Milliarden Umsatz und 10 Milliarden Gewinn, sprechen wir hier nicht mehr von Millionen ...

Bucklew
2018-01-17, 13:20:31
Es hat doch null mit Ausnutzen zu tun, wenn der IHV dem Entwickler hilft vernünftig auf seiner Hardware zu entwickeln :rolleyes:

BoMbY
2018-01-17, 15:45:40
Du glaubst vermutlich immer noch an den Weihnachtsmann, oder? Es ist hinreichend bekannt, dass NVidia diese Mittel und ihre Marktmacht nutzt um die Konkurrenz zu sabotieren.

Leonidas
2018-01-18, 06:50:40
Nein, wir sind doch im Speku-Forum, was interessieren mich da vergangene Ausgaben ;)

Wenn Intel Geld in die Hand nimmt - und für etwas habne Sie ja Kodouri geholt - dann entwickeln Sie mit Blick auf Machine Learning, HPC etc.



Eigentlich nicht. HPC hatten sie ja schon mit Xeon Phi. Wurde abgesägt. Warum wohl? Mißerfolg war es nicht. Es war zu teuer, weil es *nur* im HPC-Markt stand. Diese Entwicklung rechtfertigt sich nicht, wenn man nicht auch Millionen an Gamer-Chips verkaufen kann.

Beides zusammen refinanziert die Entwicklung. Ein Teillgebiet ist zu wenig. Siehe auch AMD und seine Gamer-Chips, die auf HPC kaum noch eine Rolle spielen.

HOT
2018-01-18, 07:05:35
Na ja, Xeon Phi gibts quasi nicht mehr... das war schon ein ordentlicher Schlag ins Wasser würd ich sagen. Und er wird offensichtlich ersetzt durch die neuen Grafikchips, da ja Knights Mill auch die letzte Auskopplung sein soll. Knights Hill ist gecancelt worden und die ganze Reihe gleich mit.
Die werden jetzt KabyLakeR + VegaM, dann WhiskeyLake + VegaM und dann IcelakeG + NaviM machen, Tigerlake bringt dann Arctic Sound und diese Architektur werden die dann in den HPC-Markt bringen als quasi-Nachfolger von Knights Mill bringen.

Ganon
2018-01-18, 08:08:06
Eigentlich nicht. HPC hatten sie ja schon mit Xeon Phi. Wurde abgesägt. Warum wohl? Mißerfolg war es nicht. Es war zu teuer, weil es *nur* im HPC-Markt stand. Diese Entwicklung rechtfertigt sich nicht, wenn man nicht auch Millionen an Gamer-Chips verkaufen kann.

Der HPC Bereich hat sich aber auch gerade selbst einen ziemlich dicken Vendor-LockIn mit CUDA geschaffen. Der rächt sich auch gerade so ein bisschen, weil NVidia die Nutzung von Consumer-Karten im HPC-Bereich verboten hat. Von daher hat man hier im Prinzip schon das Problem, dass man eigentlich tun kann was man will. Entweder man kriegt CUDA Anwendungen zum Laufen oder eben nicht.

Pirx
2018-01-18, 08:35:14
Der HPC Bereich hat sich aber auch gerade selbst einen ziemlich dicken Vendor-LockIn mit CUDA geschaffen. Der rächt sich auch gerade so ein bisschen, weil NVidia die Nutzung von Consumer-Karten im HPC-Bereich verboten hat. Von daher hat man hier im Prinzip schon das Problem, dass man eigentlich tun kann was man will. Entweder man kriegt CUDA Anwendungen zum Laufen oder eben nicht.
tja, wer hätte das gedacht...:rolleyes: aber da gibts schon noch ein paar mehr Optionen

Bucklew
2018-01-18, 09:01:38
Du glaubst vermutlich immer noch an den Weihnachtsmann, oder? Es ist hinreichend bekannt, dass NVidia diese Mittel und ihre Marktmacht nutzt um die Konkurrenz zu sabotieren.
Spar dir doch solche alternativen Fakten.

BoMbY
2018-01-18, 10:45:51
Spar dir doch solche alternativen Fakten.

:rolleyes: Hab ich Deine Religion beleidigt?

Hübie
2018-01-18, 13:11:56
Spar dir doch solche alternativen Fakten.

Hast du etwa nicht gewusst, dass NVIDIA eigentlich die GPUs für AMD entwickelt und auch die lauten Kühler entwirft? Es sind nicht AMDs Leute die jeden Launch manipulieren. Es sind Jensens Stoßtrupps... ;D

Bucklew
2018-01-18, 13:25:36
Hab ich Deine Religion beleidigt?
Nein, du trollst eben einfach nur und das ist ziemlich nervig.

Dass ein Entwickler für den Hersteller optimiert, der 70-80% Marktanteil hat (= Anteil der Kunden des Entwicklers) ist völlig logisch.

Hast du etwa nicht gewusst, dass NVIDIA eigentlich die GPUs für AMD entwickelt und auch die lauten Kühler entwirft? Es sind nicht AMDs Leute die jeden Launch manipulieren. Es sind Jensens Stoßtrupps... ;D
Sorry, hab den AMD-Narrativ wieder mal vergessen :cool:

AffenJack
2018-02-20, 10:47:28
Intel hat auf einer Tagung einen ersten kleinen GPU Testchip, aber noch größtenteils basierend auf der aktuellen Architektur gezeigt:

https://translate.google.com/translate?depth=1&nv=1&rurl=translate.google.com&sp=nmt4&tl=en&u=https://pc.watch.impress.co.jp/docs/column/kaigai/1107078.html&xid=17259,15700021,15700105,15700122,15700124,15700149,15700168,15700173,1570020 1

BoMbY
2018-02-20, 11:15:06
Auch bei Golem: Intel zeigt Prototyp von dediziertem Grafikchip (https://www.golem.de/news/raja-koduri-intel-zeigt-prototyp-von-dediziertem-grafikchip-1802-132861.html)

SKYNET
2018-02-20, 11:51:36
Schon wenn dabei was abfällt was in dem Performancegebiet von 1060/580 wildern kann wärs für Nvidia und AMD bitter.

Eine wettbewerbsfähige high-end dGPU hört sich weit spannender an, dürfte aber wohl der Super-GAU für rot und grün sein (ob die für Gaming kommt sei mal dahingestellt) - einen 3. Player am Markt würde derzeit Nvidia sicher noch eher verkraften als RTG.

Semi-OT Frage (weil Notebook und so):
Ob Intel mit der neuen AMD-Kooperation erste Erfahrungen sammeln will bevor man auf ein eigenes GPU-Design umstellt?

ich glaub nicht das sony, MS und apple da all zu schnell auf den zug aufspringen werden, sprich AMD sollte da vorerst keine probleme haben...

Windi
2018-02-20, 12:16:32
Auch bei Golem: Intel zeigt Prototyp von dediziertem Grafikchip (https://www.golem.de/news/raja-koduri-intel-zeigt-prototyp-von-dediziertem-grafikchip-1802-132861.html)

Hört sich für mich nach einem Testlauf für einen EMIB Grafikchip an. Zum einen ist er mit 64mm2 recht klein, zum anderen testet man verschiedene Spannungsversorgungsmöglichkeiten (interessant zum Stromsparen bei iGPUs).

Dank eines Bridge-Chip, der von EMIB auf PCIe wandelt, kann man daraus natürlich auch eine externe Grafikkarte machen. Hier beim Prototyp nutzt man dafür noch einen FPGA.

maguumo
2018-02-20, 12:47:25
6 Seiten Diskussion und es ist doch nicht hängen geblieben :freak:

Exxtreme
2018-02-20, 13:02:14
Bei Intel sehe ich eher Probleme was Treiber angeht. Bei uns in der Firma gilt: no Intel, no cry. Da baue ich lieber dedizierte 35€-Nicht-Intel-Grafikkarten in die Office-Kisten ein. Das erspart viele BSODs und andere Ärgernisse. Nur bei Notebooks klappt das leider nicht. Zudem lässt Intel den Support für Treiber sehr schnell komplett fallen. Das werden viele Kunden wohl so auch nicht akzeptieren.

Ansonsten ein dritter Mitspieler wäre echt gut.

Loeschzwerg
2018-02-20, 13:45:09
Gerade im reinen Office-Betrieb (inkl. Präsentationen + Beamer usw.) hatte ich mit Intel ab HD Graphics keine Probleme mehr, zuvor war Dual-Monitor manchmal unschön.
Aber BSODs kann ich nicht mal bei den Vorgängern (GMA) nachvollziehen, sicher dass da nicht etwas anderes Probleme bereitet (hat)?

Ich meine, ich habe in der Arbeit seit 2004 eigentlich nur Systeme mit Intel Grafik als Alltagshobel (Notebook und Desktop) ^^

SKYNET
2018-02-20, 14:06:13
Bei Intel sehe ich eher Probleme was Treiber angeht. Bei uns in der Firma gilt: no Intel, no cry. Da baue ich lieber dedizierte 35€-Nicht-Intel-Grafikkarten in die Office-Kisten ein. Das erspart viele BSODs und andere Ärgernisse. Nur bei Notebooks klappt das leider nicht. Zudem lässt Intel den Support für Treiber sehr schnell komplett fallen. Das werden viele Kunden wohl so auch nicht akzeptieren.

Ansonsten ein dritter Mitspieler wäre echt gut.


wie kannst du sowas nur behaupten, intel kümmert sich doch super um ihre noch laufenden produkte...











... und sobald was neues kommt war das mit dem support für das vorhergegangene produkt :freak:

Leonidas
2018-02-20, 14:14:37
Ich meine, ich habe in der Arbeit seit 2004 eigentlich nur Systeme mit Intel Grafik als Alltagshobel (Notebook und Desktop) ^^


Kann ich genauso bestätigen. Alles was Notebook ist, wurde vorzugsweise ohne dGPU realisiert - und nie Probleme damit.

Sicherlich, die Gaming-Treiber von Intel sind nicht toll. Aber für Office-Maschinen ohne Belang.

grauenvoll
2018-02-20, 16:31:18
Kann ich genauso bestätigen.

Kann ich leider nicht bestätigen. Besonders der Produktsupport älterer Serien lässt sehr zu wünschen übrig. Intel supported aktiv nur die aktuelle Generation und die davor. Bei älteren muss man sehen. Bei meinem IvyBridge-Gerät hat es Monate gedauert bis man überhaupt einen Windows8.1 Treiber hatte. Musste zwischendurch wieder zurück zu Windows8, was MS aber nicht mehr unterstützte. Auch mein Haswell-Notebook ist nicht berauschend, immer wieder merkwürdige Hänger, fühlt sich einfach unrund an. Es funktioniert zwar alles irgendwie, aber Spass macht das nicht. Dagegen ist mein LowBudget-Kaveri-Notebook eine Wohlfühloase, auch wenn Intel auf dem Papier besser aussehen.

5CH4CHT3L
2018-02-20, 16:55:43
Also wenn Intel richtig ins dGPU Geschäft einsteigt wird AMD wahrscheinlich bald komplett raus sein, wenn man beachtet das sie derzeit bereits eine Generation hinterherhängen und nur durch den Cryptoboom noch hohe Umsatzzahlen haben.

Schnoesel
2018-02-20, 17:09:04
Intel muss erstmal beweisen, dass sie mit einer dGPU überhaupt konkurrenzfähig sind. Der letzte Versuch in dieser Hinsicht ist ja grandios gescheitert (Hust Larrabee Hust). Es hilft da auch nix einfach Geld in die Runde zu werfen. Konkurrenz sehe ich hier noch nicht.

SKYNET
2018-02-20, 17:09:17
Also wenn Intel richtig ins dGPU Geschäft einsteigt wird AMD wahrscheinlich bald komplett raus sein, wenn man beachtet das sie derzeit bereits eine Generation hinterherhängen und nur durch den Cryptoboom noch hohe Umsatzzahlen haben.

ehm, du weisst aber schon was in xbox, playstation und macs werkelt, oder? :P

Blediator16
2018-02-20, 17:14:43
Also wenn Intel richtig ins dGPU Geschäft einsteigt wird AMD wahrscheinlich bald komplett raus sein, wenn man beachtet das sie derzeit bereits eine Generation hinterherhängen und nur durch den Cryptoboom noch hohe Umsatzzahlen haben.

Wahrscheinlich :freak:

Loeschzwerg
2018-02-20, 17:15:54
Ivy hat sogar noch aktuelle Win10 Treiber, da kann man eigentlich nicht meckern. Sonderlich schnell ist AMD mit dem Release neuer APU Grafiktreiber ja leider auch nicht.

Sicherlich, die Gaming-Treiber von Intel sind nicht toll. Aber für Office-Maschinen ohne Belang.

Jup, Anpassungen für Spiele dauern etwas. Mit Einführung des Iris Brands hat die Sache aber an Fahrt aufgenommen und mittlerweile scheint das Treiber-Team recht organisiert zu sein.

Bin in jedem Fall sehr gespannt, auch wenn die kommende Lösung vielleicht nicht primär auf Gaming ausgelegt sein sollte.

Intel muss erstmal beweisen, dass sie mit einer dGPU überhaupt konkurrenzfähig sind. Der letzte Versuch in dieser Hinsicht ist ja grandios gescheitert (Hust Larrabee Hust). Es hilft da auch nix einfach Geld in die Runde zu werfen. Konkurrenz sehe ich hier noch nicht.

Ich würde Larrabee nicht mal als wirklichen Versuch für eine dGPU im Hinblick auf 3D Berechnung sehen, sondern eher als Versuch einen Gegenpol zu NV CUDA / ATI Stream zu stellen. Hierzu passt auch viel besser die Designentscheidung x86 basierte Kerne zu verwenden.

Eldoran
2018-02-20, 17:32:04
Also zumindest der jetzt bekannte Testchip ist auch konzeptuell wohl kaum für anderes als low end denkbar - wenn ich da nichts übersehen habe, scheint das Ding kein Speicherinterface zu haben, das dürfte momentan alles über den PCIe laufen - damit relativiert sich auch das Cache - es ist eher so etwas wie der HBCC bei Vega, nur minimalistisch. Das Ding ist eher der GPU Teil der MCP Studien (damit die immer größeren iGPU Teile nicht das Die so sehr aufblasen und nebenher die verschiedenen iGPU Varianten pro CPU Konfiguration erspart)

5CH4CHT3L
2018-02-20, 17:37:55
@Schnoesel @SKYNET
AUch wieder richtig. Trotzdem sehe ich langfristig keine Perspektive für 3 große Spielen im Grafikkartenbereich, da sich zwei langfristig durchsetzen werden.
Wenn jeder Hersteller rund 1/3 Marktanteil hätte wäre es ja perfekt, wird aber nicht passieren weil die Produkte nie gleich gut sind

Hübie
2018-02-20, 18:48:01
Für mich riecht es nach einem typisches Intel-Ding: Wir-wollen-auch-so-ein-Produkt. Apple trennt sich von Imgtech und baut auch eigene GPUs. Samsung mit Mali und Qualcomm mit Adreno haben auch eigene IP. Jetzt will Intel auch.
Warum Intel allerdings diskrete GPUs verbauen will verstehe ich nicht, da man in diesen Markt kaum eindringen kann, wenn man nicht direkt oben mit spielt. Man schaue wie schwer es AMD hat. Wir sprechen hier vom Aufbrechen eine quasi-Monopols... Das traue ich denen nicht zu.

Was wären eurer Meinung nach Schlüsseleigenschaften einer hypothetischen Intel Grafikkarte die einen soliden Start im Gaming Sektor repräsentieren würden? Ist Gaming überhaupt das Ziel oder nur ein Ziel? Automotive verlangt auf längere Sicht nach embedded Varianten, was diskrete Chips fast vollständig ausschließt (sobald die Leistung eben auf entsprechend kleiner Fläche verfügbar ist).

Ganon
2018-02-20, 18:58:27
Es ist halt auch doof gar keine Produkte in dem Gebiet zu haben. Sei es nun als Prototyp, Forschungsobjekt oder als fertiges Produkt. In Non-Gaming Bereichen finden GPUs aktuell ziemlich viele Abnehmer (Mining, Automotive, KI, ...). Und Intel hat schlicht das Problem, dass die CPU Leistung über die letzten Jahre eher nur langsam voran geht, sogar dank Meltdown und Spectre mit Kurven "nach unten".

GPUs waren die letzten Jahre die einzigen Produkte die leistungsmäßig durch die Decke gingen. Und da hat Intel eben keine Angebote.

Ob das Ganze nun erfolgreich ist oder nicht wird sich natürlich zeigen. Gerade im GPGPU Bereich müsste man erst mal die Marktdominanz von CUDA einschränken, NVidia indirekt zwingen ein aktuelles OpenCL zu implementieren und dann haben auch Alternativen mehr Chancen. Viele Projekte fangen auch jetzt erst wirklich an mit OpenCL Portierungen. Das dauert noch.

Intel hat aber vor kurzem auch erst eine neue OpenCL 2.x Library (nicht beignet) für ihre neueren GPUs veröffentlicht. Aufgegeben haben sie den Bereich also nicht.

Hübie
2018-02-20, 19:01:16
Na wie gesagt verstehe ich wenn man GPU-Chips entwickelt, aber eine diskrete Grafik ist für mich ein Chip auf einem PCB, das man als Modul irgendwo drauf steckt oder einbaut. Da sehe ich für Intel ehrlich gesagt schwarz da Fuß zu fassen.

Windi
2018-02-20, 19:28:28
Was wären eurer Meinung nach Schlüsseleigenschaften einer hypothetischen Intel Grafikkarte die einen soliden Start im Gaming Sektor repräsentieren würden? Ist Gaming überhaupt das Ziel oder nur ein Ziel? Automotive verlangt auf längere Sicht nach embedded Varianten, was diskrete Chips fast vollständig ausschließt (sobald die Leistung eben auf entsprechend kleiner Fläche verfügbar ist).
Bei 64mm2 hat das Teil sicherlich kaum Leistung.
Entweder das Teil verfügt über EMIB und man kann es in Zukunft an jede Intel CPU anflanschen.
Oder es wird ein Billig Grafikchip für Server, Office oder Multimedia (Intel hat ja anscheinend gute Decoder)

Die Stromsparfunktionen deuten für mich darauf hin, das man ihn in Bereiche einsetzen will, in denen der Stromverbrauch entscheidend ist. Das wären wohl APUs mit einer TDP von unter 15 Watt.
Mit einem Brückenchip kann man das ganze natürlich auch als externe Grafikkarte zweckentfremden. Ich habe nur noch nichts von einem Speicherkontroller gelesen, wenn der fehlt wäre das bei einer Grafikkarte nicht so gut.

Hübie
2018-02-20, 19:47:04
Das wird eher ein Testballon sein. Pascal war auch mal irgendwas bei 45 mm². ;D Habe auch mal ein "Kepler-Baby" gesehen. Von daher schließe ich erst mal auf nichts weiter, als dem erklärten Zielen der Effizienz (EU-gating).

Eldoran
2018-02-20, 20:26:29
Bei 64mm2 hat das Teil sicherlich kaum Leistung.
Entweder das Teil verfügt über EMIB und man kann es in Zukunft an jede Intel CPU anflanschen.
Oder es wird ein Billig Grafikchip für Server, Office oder Multimedia (Intel hat ja anscheinend gute Decoder)

Die Stromsparfunktionen deuten für mich darauf hin, das man ihn in Bereiche einsetzen will, in denen der Stromverbrauch entscheidend ist. Das wären wohl APUs mit einer TDP von unter 15 Watt.
Mit einem Brückenchip kann man das ganze natürlich auch als externe Grafikkarte zweckentfremden. Ich habe nur noch nichts von einem Speicherkontroller gelesen, wenn der fehlt wäre das bei einer Grafikkarte nicht so gut.
Ich tippe auf EMIB. So wie ich die Grafik interpretiere, laufen da die ganzen Datenzugriffe über den Brückenchip und von dort über PCIe. Das interessante ist da eher, dass eben der eigentliche Speichercontroller gar nicht auf dem Die ist, es ist eher eine iGPU ohne Rest (Speichercontroller etc. werden ja sonst von der CPU mitgenutzt). Es dürfte aber an sich eher als POC für die Stromversorgungsvarianten oder als realitätsnaher Testchip gedacht sein. Laut Semi-accurate hat intel gerade in dem Bereich mit den aktuellen Fertigungen Probleme und das ist quasi ein Test welche Lösung unter diesen Bedingungen prinzipiell brauchbare Ergebnisse liefert.

BoMbY
2018-02-20, 20:52:42
Das wird eher ein Testballon sein.


Intel announced a prototype chip



is not a level that can be put on the market as a product



examines power and performance control technology using integrated voltage regulator (IVR).



The test chip



It is connected to the host PC via the FPGA bridge. As far as the configuration is concerned, it is a prototype for demonstration experiments.



The prototype GPU released by Intel this time is not a level towards commercialization.


Also ich bin fast sicher die werden bestimmt gestern damit anfangen das in Massen zu produzieren, und NVidia und AMD können gleich die Segel streichen.

PHuV
2018-02-20, 21:43:42
Seit 20 Jahren versuchts Intel, und bekommt es trotz massiver Investitionen und Resourcen einfach nicht hin. Ich glaube mittlerweile, daß das wieder nix wird.

gmb
2018-02-20, 22:32:05
Gerade im reinen Office-Betrieb (inkl. Präsentationen + Beamer usw.) hatte ich mit Intel ab HD Graphics keine Probleme mehr, zuvor war Dual-Monitor manchmal unschön.
Aber BSODs kann ich nicht mal bei den Vorgängern (GMA) nachvollziehen, sicher dass da nicht etwas anderes Probleme bereitet (hat)?

Ich meine, ich habe in der Arbeit seit 2004 eigentlich nur Systeme mit Intel Grafik als Alltagshobel (Notebook und Desktop) ^^


Das ganze Media Zeugs funktioniert doch sogar viel besser auf einer Intel, jedenfalls im Vergleich zu einer AMD. Während AMD ständig am ankündigen ist (PlayReady 3.0), hat Intel schon lange geliefert. Auch die Videobeschleunigung oder Quicksync, da ist AMD rückständig im Vergleich. Die ganzen Berichte um Raven Ridge haben das wieder deutlich gemacht.


Prototyp auf einer alten Gen9, das kann nur zu Testzwecken sein. Die Berichte haben von Gen11 und Gen12 Produkten gesprochen, da wäre schon eine dedizierte auf Basis einer Gen11 für mich überraschend.


Seit 20 Jahren versuchts Intel, und bekommt es trotz massiver Investitionen und Resourcen einfach nicht hin. Ich glaube mittlerweile, daß das wieder nix wird.


Seit 20 Jahren ist völliger Blödsinn. GPU Ambitionen für integrierte GPUs hat Intel erst ab ca 2010 gezeigt, als sie die GPU mit ins CPU Die integriert haben und jetzt von der Feature Seite praktisch alles haben. Ambitionen für dedizierte GPUs gab es zwangsläufig Jahre später, das kam jetzt erst auf.

gravitationsfeld
2018-02-20, 22:35:41
Seit 20 Jahren versuchts Intel, und bekommt es trotz massiver Investitionen und Resourcen einfach nicht hin. Ich glaube mittlerweile, daß das wieder nix wird.
Naja, sie haben mit Larrabee halt auch echt auch eine Sackgasse verfolgt. Da war konzeptionell einfach nix zu retten.

Auf der anderen Seite sind ihre Gen-Sachen halt auch unterirdisch was Performance pro Transistor und Flaeche angeht. Selbst im Vergleich zu AMD. Gegenueber NVIDIA wird's noch absurder.

Und dann machen sie so Dinge wie ASTC einzubauen und alle anderen so: :facepalm:

pixeljetstream
2018-02-20, 23:21:41
Sie haben auch die meisten ihrer Grafikforscher gehen lassen, bzw. Abteilungen geschlossen, viele sind bei NVIDIA Research (Salvi, Lefohn, Reshetov, das Team in Lund um Akanine-Möller) oder anderswo (Lauritzen bei Seed)...

Kann mir eigentlich nicht vorstellen dass sie mit Grafik was reißen wollen. Aber die Kriegskasse haben sie... allerdings Apple hat mehr um Leute anzuwerben.

scully1234
2018-02-20, 23:46:00
Sie haben auch die meisten ihrer Grafikforscher gehen lassen, bzw. Abteilungen geschlossen, .

Das ist ja nur eine Seite der Mediale ,ohne zu mindestens halbwegs konkurrenzfähige IP auf der man aufbauen könnte, bringt Intel ein fähiges Team auch nicht viel weiter.

Ob da mit Koduri jetzt noch anderes geistiges Eigentum den Besitzer wechselt, ohne das es zu richterlichen Exzessen kommt, ist da wohl weiterhin maßgeblich für Marktanteile in den Sparten,auf die es Intel abgesehen hat

Mit dem eigenen mageren Stoff ,wird da kein Schuh draus der passt

Ich denke aber auch das Intel mit der Tochterfirma Mobileye ,Google mit seiner steigenden Fahrzeugflotte (Waymo) als möglichen Großabnehmer für Grafikchips einplant (LV4/5)

Das Dreigespann ist derzeit in Kalifornien ja on top bei self driving Cars mit ihrem Ökosystem

https://www.dmv.ca.gov/portal/wcm/connect/42aff875-7ab1-4115-a72a-97f6f24b23cc/Waymofull.pdf?MOD=AJPERES

gravitationsfeld
2018-02-21, 03:55:00
Mal was anderes: Kann es sein, dass sie mit "diskreter Grafik" wirklich nur ein separates EMIB-Die meinen und gar keine PCIe-Karten?

Der Prototyp hat 1.5 Milliarden Transistoren und sie bekommen da 192 ALUs und 3(!) ROPs rein. Keine Speichercontroller, kein PCIe-Interface. Ueber den Takt will ich jetzt mal nicht urteilen, aber anscheinend 400 Mhz.

NVIDIA bekommt in 1.8 Millarden Transistoren (GP108) 384 ALUs, 16 ROPs, ein GDDR5- und PCIe-Interface und >1.2Ghz Takt. Da sind Welten! dazwischen.

BoMbY
2018-02-21, 09:31:15
Die wollen immer noch "high-end discrete graphics solutions" bauen ...

Und das was die da gezeigt haben ist ein Testchip, ein Prototyp für bestimmte Technologieteile. Da ging es nie um Leistung, und das hat praktisch nichts mit dem Endprodukt in ein, oder zwei, Jahren zu tun.

SKYNET
2018-02-21, 09:39:01
@Schnoesel @SKYNET
AUch wieder richtig. Trotzdem sehe ich langfristig keine Perspektive für 3 große Spielen im Grafikkartenbereich, da sich zwei langfristig durchsetzen werden.
Wenn jeder Hersteller rund 1/3 Marktanteil hätte wäre es ja perfekt, wird aber nicht passieren weil die Produkte nie gleich gut sind

da intel aber -wie immer- die treiber verkacken wird, wird das so schnell nicht passieren... :freak:

PHuV
2018-02-21, 09:39:11
Seit 20 Jahren ist völliger Blödsinn. GPU Ambitionen für integrierte GPUs hat Intel erst ab ca 2010 gezeigt, als sie die GPU mit ins CPU Die integriert haben und jetzt von der Feature Seite praktisch alles haben. Ambitionen für dedizierte GPUs gab es zwangsläufig Jahre später, das kam jetzt erst auf.
Weil Du jung und unerfahren bist, tust Du anders gleich als Blödsinn ab? :rolleyes: Du darfst nicht nur die Anfänge mit Intels GMA betrachten, Intels begehren, auf den Grafikkartenmarkt zu landen, geht viel weiter:
Wikipedia - i740 (https://de.wikipedia.org/wiki/I740)

Der i740 (Codenamen Auburn) ist der erste Grafikprozessor von Intel und erschien 1998.

Also recherchiere gefällst erst mal ordentlich, bevor Du andere bezichtigst, so wie Du es tatsächlich tust: Blödsinn zu schreiben. :facepalm:
Naja, sie haben mit Larrabee halt auch echt auch eine Sackgasse verfolgt. Da war konzeptionell einfach nix zu retten.
Sie haben es - wie erwähnt - bereits mehrfach probiert. Und es verwundert mich doch stark, daß ein so großer Konzern mit solchen Resourcen es über 20 Jahre nicht schafft, eine gescheiten und konkurrenzfähigen Grafikchip auf die Beine zu bringen.

Aus Larrabee wurden diverse Knight-Versionen bis hin zu Knight Landing und Xeon Phi, bzw. aktuell Knights Mill, und das ist auch nur ein Peinlichkeit nach der anderen, weil davon nichts vernünftig auf dem Markt landet.

Loeschzwerg
2018-02-21, 10:14:31
i740 ist an der Idee gescheitert AGP zu pushen (Texturen über AGP Bus in den Haupsteicher...) und Larrabee, wie gravitationsfeld richtig schreibt, am Konzept.

Das hat absolut nichts mit Ressourcen zu tun, sondern vielmehr mit engstirnigen Entscheidungen im Management. Einen richtigen, ehrlichen Versuch gab es daher eigentlich nie.

PHuV
2018-02-21, 11:21:11
Na ja, sie haben nach wie vor bereits einen hohen Marktanteil mit den bisherigen integrierten Grafikchips:
https://www.heise.de/imgs/18/2/3/2/4/2/4/3/MW-004-5c0d03e6f73d5ea1.png
Marktanteile laut Jon Peddie Research im Q3/2017 (Bild: Jon Peddie Research)
Quelle: Heise - Grafikchip-Absatz: Intel verliert Marktanteile, Nvidia steigert Absatz (https://www.heise.de/newsticker/meldung/Grafikchip-Absatz-Intel-verliert-Marktanteile-Nvidia-steigert-Absatz-3900379.html)
Wie war das mit dem fetten, satten und faulen Fastmonopolisten, der es nicht nötig hat, seine Situation zu verändern? :wink:

Wenn man sich überlegt, daß die meisten heute ausgelieferten CPUs von Intel eben Grafik mitbringen, ist das für Intel (bzw. deren Management) zufriedenstellend und die meisten Anwender ausreichend. Klar, die Treiber sind nicht dolle und für die Spieler bringt HD-Grafik gerade mal das notwendigste, aber es läuft, als Standard und Default, und eben für den Normalanwender stabil.

Loeschzwerg
2018-02-21, 13:55:18
https://www.computerbase.de/2018-02/intel-grafik-prototyp-gpu/#update1
Last week at ISSCC, Intel Labs presented a research paper exploring new circuit techniques optimized for power management. The team used an existing Intel integrated GPU architecture (Gen 9 GPU) as a proof of concept for these circuit techniques. This is a test vehicle only, not a future product. While we intend to compete in graphics products in the future, this research paper is unrelated. Our goal with this research is to explore possible, future circuit techniques that may improve the power and performance of Intel products.

Hübie
2018-02-21, 14:50:24
Ja wie bereits vermutet und indirekt auch schon von BoMbY zitiert ein Testballon für Grundlagenforschung. Iirc hat ein LDO doch generell den Nachteil relativ träge zu sein, oder irre ich? Wie kommt man dem entgegen? On-the-fly wird ein zu- und abschalten dann ja schwierig und ist mit Performanceverlusten unmittelbar verbunden. Speedshift in Skylake hat zwar ein deutlich schnelleres Ansprechverhalten, aber reicht dies auch für GPUs?

gravitationsfeld
2018-02-22, 05:49:35
Die wollen immer noch "high-end discrete graphics solutions" bauen ...

Und das was die da gezeigt haben ist ein Testchip, ein Prototyp für bestimmte Technologieteile. Da ging es nie um Leistung, und das hat praktisch nichts mit dem Endprodukt in ein, oder zwei, Jahren zu tun.
Es ist mir schon klar, dass das ein Testchip ist.

Die rohe Performance/Flaeche ist vergleichbar mit ihren CPU-IGPs. Zwei Jahre sind nicht viel Zeit um solche Spruenge zu machen.

Und von ihrem riesigen Fertigungs-Vorteil, den sie bisher hatten ist auch nichts mehr viel uebrig.

Tru
2018-02-22, 14:29:22
Mal was anderes: Kann es sein, dass sie mit "diskreter Grafik" wirklich nur ein separates EMIB-Die meinen und gar keine PCIe-Karten?

Der Prototyp hat 1.5 Milliarden Transistoren und sie bekommen da 192 ALUs und 3(!) ROPs rein. Keine Speichercontroller, kein PCIe-Interface. Ueber den Takt will ich jetzt mal nicht urteilen, aber anscheinend 400 Mhz.

NVIDIA bekommt in 1.8 Millarden Transistoren (GP108) 384 ALUs, 16 ROPs, ein GDDR5- und PCIe-Interface und >1.2Ghz Takt. Da sind Welten! dazwischen.
Sind es nicht drei Sub-Slices à sechs EUs und damit 144 ALUs? ;D

gravitationsfeld
2018-02-22, 16:00:57
Gen9 hat 8 EUs pro Sub-Slice.

Edit: Du hast recht, in dem Die-Shot seh ich auch nur 6 pro Subslice.

paul.muad.dib
2018-02-22, 23:20:12
Wäre es theoretisch sinnvoll, dass Intel die Radeon Technology Group von AMD übernimmt, immer vorausgesetzt Intel wäre ernsthaft daran gelegen dedizierte Grafikkarten anzubieten?3

Intel könnte den Kaufpreis ja fast aus der Portokasse zahlen. Das Know how und die Köpfe in der Breite und tiefe aufzubauen ohne in den ersten Jahren Produkte verkaufen zu können könnte evtl. sogar teurer sein, ganz zu schweigen von den Patenten. Zudem wäre es so möglicherweise leichter, im Server und embedded Bereich den Anschluss an NV zu behalten und die Produkte besser vermarktbar als unter AMD Logo.

AMD ist immer knapp bei Kasse und könnte das Geld sicher gut gebrauchen. Zudem zeichnet sich ab, dass sie noch weiter ins Hintertrefffen geraten, wenn NV Ampere bringt. Sprich im RTG Bereich muss kräftig investiert werden und diese Mittel wird AMD leider nicht aufbringen können.

Dagegen spricht, dass AMD die Bereiche APU und Konsolen aufgibt. Während APUs wohl Nische bleiben werden, es sei denn die CU könnten ähnlich wie SSD und anderes eingesetzt werden, sind die Konsolen natürlich eine Hausnummer. Anereseits spricht ja erstmal nichts dagegen, dass AMD weiterhin den CPU Teil liefert und ein anderer die GPU.

AffenJack
2018-02-22, 23:30:31
AMD würde RTG niemals verkaufen. RTG ist das Standbein (Konsolendeals), was AMD vor dem Bankrott gerettet hat und der Bereich mit den größten Wachstumschancen, wenn man AI, HPC, VR... ansieht.

Abgesehen davon, wenn Intel wen hätte kaufen wollen, dann hätten sie wohl bei IMG zugeschlagen, als die verkauft wurden. Supergünstig und mit etwas finanziellen Mitteln hätte man da ne Menge rausholen können. Aber anscheinend will man alles selbst machen.

reaperrr
2018-02-23, 00:33:24
Mal was anderes: Kann es sein, dass sie mit "diskreter Grafik" wirklich nur ein separates EMIB-Die meinen und gar keine PCIe-Karten?

Der Prototyp hat 1.5 Milliarden Transistoren und sie bekommen da 192 ALUs und 3(!) ROPs rein. Keine Speichercontroller, kein PCIe-Interface. Ueber den Takt will ich jetzt mal nicht urteilen, aber anscheinend 400 Mhz.

NVIDIA bekommt in 1.8 Millarden Transistoren (GP108) 384 ALUs, 16 ROPs, ein GDDR5- und PCIe-Interface und >1.2Ghz Takt. Da sind Welten! dazwischen.
Transistoren werden die Interfaces jetzt nicht so viel verbrauchen, nur Fläche (bezogen auf GP108).

Würde ich erstmal nicht überbewerten. Zwei der drei Slices waren ja auf bis zu doppelten Takt ausgelegt, was auch Transistoren und Fläche gekostet haben dürfte. Ob da noch irgendwelche andere Sachen nur zum Testen auf dem Chip waren wissen wir auch nicht, gab ja keinen Die-Shot.

Die IGP von Skylake-S mit 24 EUs und 4(?) ROPs belegt jedenfalls nur ca. 40% der Fläche von 123mm², also ca. 50mm² in 14nm (natürlich ohne SI und PCIe-Interface) und zieht selbst bei >1GHz jetzt nicht wahnsinnig viel Strom.

YfOrU
2018-02-23, 08:56:28
.Dagegen spricht, dass AMD die Bereiche APU und Konsolen aufgibt. Während APUs wohl Nische bleiben werden, es sei denn die CU könnten ähnlich wie SSD und anderes eingesetzt werden, sind die Konsolen natürlich eine Hausnummer. Anereseits spricht ja erstmal nichts dagegen, dass AMD weiterhin den CPU Teil liefert und ein anderer die GPU.

"APUs", also CPUs mit IGP sind keine Nische sondern nach Volumen die mit Abstand am meisten abgesetzten x86 Produkte.

+praktisch alle Notebooks haben heute eine aktive IGP
+deutlich mehr als die Hälfte der SFF und AiO Systeme
+klassische Office Desktops

Grob geschätzt macht das 3/4 des Marktvolumens. Genau deshalb ist Raven Ridge so wichtig für AMD denn über Summit Ridge (keine IGP) kann nur ein recht kleiner Teil des Marktes adressiert werden und Bristol Ridge (APU) war alles andere als wirklich konkurrenzfähig. AMD hat bezogen auf CPUs mit IGP ein riesiges Wachstumspotential denn das Problem war in de Vergangenheit nicht die GPU IP sondern CPU und Fertigung.

paul.muad.dib
2018-02-23, 19:19:34
"APUs", also CPUs mit IGP sind keine Nische sondern nach Volumen die mit Abstand am meisten abgesetzten x86 Produkte.

+praktisch alle Notebooks haben heute eine aktive IGP
+deutlich mehr als die Hälfte der SFF und AiO Systeme
+klassische Office Desktops

Grob geschätzt macht das 3/4 des Marktvolumens. Genau deshalb ist Raven Ridge so wichtig für AMD denn über Summit Ridge (keine IGP) kann nur ein recht kleiner Teil des Marktes adressiert werden.

Als Nische verstehe ich eher die Designs von AMD. Der Grafikteil braucht fast so viel Platz wie eine Zen CCx + 4 mb l3 cache. Dadurch kostet RR mehr als Intel Chips mit gleicher CPU Leistung und das macht sie in meinen Augen zur Nische für die wenigen, die für die höhere Grafikleistung einen Aufpreis zu zahlen bereit sind.

Integrierte GPU ist mainstream, allerdings reicht hier eine flüssige Windows und Videowiedergabe für die meisten aus und wer mehr braucht, wird meist auch mit der Leistung von RR nicht glücklich werden.

maguumo
2018-02-23, 19:35:22
RR kostet nicht mehr als Intel Chips mit gleicher CPU Leistung. Und man sieht doch bei allen Herstellern wohin die Reise geht, in Zukunft bastelst du dir deine Produkte aus mehreren Chiplets zusammen, dann wird es bei allen deutlich modularer und damit auch feiner abgestuft im Produktkatalog. AMD kann die RTG nicht abstoßen, schon gar nicht an Intel, damit liefert man sich selbst ans Messer.

paul.muad.dib
2018-02-23, 22:59:52
Ein 2200G liegt 10-20 Prozent hinter einem gleichpreisigen i3 8100, zwischen dem 2400G und dem 8400 liegen zum Teil 50%. Bei Szenarien die nur wenige Kerne voll auslasten, wird dem 2200G zudem sogar ein Pentium gefährlich, der die Hälfte kostet.

tm0975
2018-02-24, 01:51:34
Ein 2200G liegt 10-20 Prozent hinter einem gleichpreisigen i3 8100, zwischen dem 2400G und dem 8400 liegen zum Teil 50%. Bei Szenarien die nur wenige Kerne voll auslasten, wird dem 2200G zudem sogar ein Pentium gefährlich, der die Hälfte kostet.

;D;D;D

YfOrU
2018-02-24, 10:30:15
Als Nische verstehe ich eher die Designs von AMD. Der Grafikteil braucht fast so viel Platz wie eine Zen CCx + 4 mb l3 cache. Dadurch kostet RR mehr als Intel Chips mit gleicher CPU Leistung und das macht sie in meinen Augen zur Nische für die wenigen, die für die höhere Grafikleistung einen Aufpreis zu zahlen bereit sind.

Der R3-2200G ist aktuell minimal günstiger als ein i3-8100. Geringfügig weniger CPU Performance (ohne OC) und eine deutlich modernere und potentere GPU. Das passt meiner Ansicht nach.

Der R5-2400G hat es da gegenüber dem i5-8400 natürlich schwerer. Ist etwas günstiger, durchaus ein gutes Stück geringere CPU Performance aber eine wesentlich flottere GPU. Allerdings hat AMD im gleichen Preisbereich auch noch den R5-1600 (X) bzw. den kommenden Refresh. Schlecht aufgestellt (Auswahl) ist man damit nicht.

Jetzt haben wir aber nur Desktop SKUs betrachtet. Mobile bei 15 - 25W ist die IGP ein deutlich stärkeres Argument und Intel hat in diesem Bereich auch nur maximal 4C/8T. Bei der CPU Performance gibt es damit keine größeren Vorteile und die IGP Performance von Raven Ridge dürften auch die kommenden Iris SKUs nicht erreichen. Derart gut aufgestellt war AMD für Mobile noch nie.

Das AMDs Portfolio nicht perfekt ist versteht sich von selbst. Dafür bräuchte es wie bei Intel zusätzliche Chips. Aktuell fehlt vor allen eine Entry Variante mit 2C und kleiner IGP welche in der Fertigung entsprechend günstig ist. Steht auf den alten Roadmaps aber ob die kommt ist nicht sicher. Bezüglich Raven Ridge wären wohl auch 8 statt 11CUs ausreichend gewesen. AMD muss mit 1 - 2 Chips einen Markt (->IGP) bedienen wofür Intel 5 produziert und das führt zwangsläufig zu Kompromissen: Gemini Lake, 2C+GT2, 4C+GT2, 4C+GT3e, 6C+GT2.

SKYNET
2018-02-24, 10:49:07
Das AMDs Portfolio nicht perfekt ist versteht sich von selbst. Dafür bräuchte es wie bei Intel zusätzliche Chips. Aktuell fehlt vor allen eine Entry Variante mit 2C und kleiner IGP welche in der Fertigung entsprechend günstig ist. Steht auf den alten Roadmaps aber ob die kommt ist nicht sicher. Bezüglich Raven Ridge wären wohl auch 8 statt 11CUs ausreichend gewesen.

kommt sicher, die ausschussware wo nicht alle kerne funktionieren wird dann als 2C/4T vertickt für nen schleuderpreis. :smile:

YfOrU
2018-02-24, 11:05:00
Sicherlich wird es sowohl am Desktop als auch Mobile einen Raven Ridge mit 2C/4T geben. Resteverwertung wie immer aber nichts um das Segment wirklich zu bedienen. Das Volumen ist viel zu groß. Derart viele defekte Chips kann es nicht mal im Ansatz geben. Mit mehr als der doppelten Chip Größe gegenüber Intel (Gemini Lake sowie 2C+GT2) sind der Skalierung nach unten momentan einfach Grenzen gesetzt.

Setsul
2018-02-24, 15:10:04
Das AMDs Portfolio nicht perfekt ist versteht sich von selbst. Dafür bräuchte es wie bei Intel zusätzliche Chips. Aktuell fehlt vor allen eine Entry Variante mit 2C und kleiner IGP welche in der Fertigung entsprechend günstig ist. Steht auf den alten Roadmaps aber ob die kommt ist nicht sicher. Bezüglich Raven Ridge wären wohl auch 8 statt 11CUs ausreichend gewesen.
Wobei man sagen muss, dass das eigentlich nur für Mobile/Low Power interessant ist.
Gegen Celeron und Pentium mit kleiner IGP anzutreten ergibt wenig Sinn, wenig Marge und wenn die GPU so unwichtig ist, dass eine HD610 ausreichend, dann gewinnt man bei gleicher/schlechterer CPU-Leistung keinen Blumentopf. Einen extra Die aufzulegen nur um dann auf Schleuderpreise zurückgreifen zu müssen kann sich AMD nicht leisten.
Genauso ist es bei RR-Desktop. Sicherlich könnte AMD die GPU zurückstutzen auf Intel-Niveau. Aber was bringt das? Mehr Kerne zum gleichen Preis sind kein Argument mehr seit Coffee Lake mit nur 4 Kernen und die GPU wäre dann auch keins mehr. Das gleiche wie Intel, nur billiger, kann bei einem größeren Die nicht AMDs Ziel sein.

Also nehme ich an wenn AMD genügend Nachfrage sieht, wird es einen 2C+handvoll CUs low power Die geben, der entsprechend auch als Celeron/Pentium Konkurrenz verscherbelt wird, aber auf 4C + Krüppel-IGP wird sich AMD nicht einlassen.

Brillus
2018-02-24, 15:34:22
Wobei man sagen muss, dass das eigentlich nur für Mobile/Low Power interessant ist.
Gegen Celeron und Pentium mit kleiner IGP anzutreten ergibt wenig Sinn, wenig Marge und wenn die GPU so unwichtig ist, dass eine HD610 ausreichend, dann gewinnt man bei gleicher/schlechterer CPU-Leistung keinen Blumentopf. Einen extra Die aufzulegen nur um dann auf Schleuderpreise zurückgreifen zu müssen kann sich AMD nicht leisten.
Genauso ist es bei RR-Desktop. Sicherlich könnte AMD die GPU zurückstutzen auf Intel-Niveau. Aber was bringt das? Mehr Kerne zum gleichen Preis sind kein Argument mehr seit Coffee Lake mit nur 4 Kernen und die GPU wäre dann auch keins mehr. Das gleiche wie Intel, nur billiger, kann bei einem größeren Die nicht AMDs Ziel sein.

Also nehme ich an wenn AMD genügend Nachfrage sieht, wird es einen 2C+handvoll CUs low power Die geben, der entsprechend auch als Celeron/Pentium Konkurrenz verscherbelt wird, aber auf 4C + Krüppel-IGP wird sich AMD nicht einlassen.

Geh ich davon aus das sowas noch kommt, leider nicht mehr den link aber mit seinen Katzen war/ist AMD Marktführer bei Thinclients.

YfOrU
2018-02-25, 04:43:32
Genau das. Eine kleine APU ist nicht nur für Entry notwendig sondern vor allen auch für embedded. Jaguar oder auch Stoney Ridge ist mittelfristig einfach zu wenig. Gerade in diesem Segment ist Intel inzwischen ziemlich aktiv.

fondness
2018-02-27, 21:58:26
Intel's first high-end discrete GPU is called Arctic Sound, built on 10nm++ with Gen12 architecture. It consists of several small chiplets connected via high-bandwidth EMIB gen 2 to reduce cost. RIP NVIDIA.

https://twitter.com/witeken/status/968310051197870081?s=09

Ravenhearth
2018-02-27, 22:03:08
"RIP NVIDIA" Is klar ;D

Edit: Im Januar hieß es noch (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Arctic-Jupiter-Sound-Intel-diskrete-GPUs-Raja-Koduri-1247862/), Arctic Sound sei keine High-End-GPU, sondern solle zusammen mit einer Intel-CPU auf einem Package sitzen und mit dieser per EMIB verbunden sein. Das klingt wesentlich realistischer...

Vielleicht auch beides? CPU+GPU für Mobile und mehrere GPUs als "High End"-Lösung? Dann bliebe aber abzuwarten, wie gut letzteres funktioniert.

scully1234
2018-02-27, 22:05:05
Das kommt dann in die geatest Hits Kiste ,gleich hinter poor Volta in der Rangliste

paul.muad.dib
2018-03-01, 22:16:37
Der R3-2200G ist aktuell minimal günstiger als ein i3-8100. Geringfügig weniger CPU Performance (ohne OC) und eine deutlich modernere und potentere GPU. Das passt meiner Ansicht nach.

Der R5-2400G hat es da gegenüber dem i5-8400 natürlich schwerer. Ist etwas günstiger, durchaus ein gutes Stück geringere CPU Performance aber eine wesentlich flottere GPU. Allerdings hat AMD im gleichen Preisbereich auch noch den R5-1600 (X) bzw. den kommenden Refresh. Schlecht aufgestellt (Auswahl) ist man damit nicht.

Jetzt haben wir aber nur Desktop SKUs betrachtet. Mobile bei 15 - 25W ist die IGP ein deutlich stärkeres Argument und Intel hat in diesem Bereich auch nur maximal 4C/8T. Bei der CPU Performance gibt es damit keine größeren Vorteile und die IGP Performance von Raven Ridge dürften auch die kommenden Iris SKUs nicht erreichen. Derart gut aufgestellt war AMD für Mobile noch nie.

Das AMDs Portfolio nicht perfekt ist versteht sich von selbst. Dafür bräuchte es wie bei Intel zusätzliche Chips. Aktuell fehlt vor allen eine Entry Variante mit 2C und kleiner IGP welche in der Fertigung entsprechend günstig ist. Steht auf den alten Roadmaps aber ob die kommt ist nicht sicher. Bezüglich Raven Ridge wären wohl auch 8 statt 11CUs ausreichend gewesen. AMD muss mit 1 - 2 Chips einen Markt (->IGP) bedienen wofür Intel 5 produziert und das führt zwangsläufig zu Kompromissen: Gemini Lake, 2C+GT2, 4C+GT2, 4C+GT3e, 6C+GT2.

Habe nochmal drüber nachgedacht und stimme dir zu. Hauptziel von RR ist sicher der Mobilebereich. Wenn AMD hier einfach eine Meetoo Strategy fährt, dürfte das angesichts der starken Marke von Intel zu wenig sein. Die GPU-Leistung ermöglicht es dann, vergleichbare Preise wie Intel durchzusetzen, wenn auch möglicherweise zu höheren Kosten wegen der größeren Chips. Die Desktop-Varianten sehe ich dann einfach noch als Nische, die sich darauf ergibt, das RR halt ohnehin da ist.

Problem ist, dass es für Mobile kaum möglich ist, objektive Leistungsvergleiche zu machen, weil möglicherweise das vom Hersteller verbaute Kühlsystem und die Einstellungen, wie viel Strom die Chips ziehen dürfen, mehr Einfluss hat als die CPUs an sich.

gmb
2018-04-04, 21:44:39
I think we've been public about the fact we're going back into discrete graphics so that is obviously his responsibility.
https://www.anandtech.com/show/12606/interview-with-aicha-evans-intels-chief-strategy-officer


Nochmal eine Bestätigung von Intel.

nikk
2018-04-06, 17:16:19
Was wären eurer Meinung nach Schlüsseleigenschaften einer hypothetischen Intel Grafikkarte die einen soliden Start im Gaming Sektor repräsentieren würden?

Mit einem dedizierten Raytracer (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11393647#post11393647) wäre das möglich. Bereits ein 2-Watt-Chip läßt die Konkurrenz alt aussehen (https://www.youtube.com/watch?v=ND96G9UZxxA&t=2m). Mit einem 200-Watt-Chip in 10nm, der mehrere Milliarden Strahlen pro Sekunde berechnet, könnte man einiges anstellen und bräuchte dafür keine 60000$ Heizungen mehr wie bei den DXR-Demos.

Troyan
2018-04-06, 17:20:18
Wie oft kommt der ImgTec-Quatsch noch? Der Chip existiert nicht, wird nirgendwo verkauft. Wäre das ganze so gut, wäre ImgTec der #1 Lieferant in der Filmbranche.

Es hat sein Grund, wieso die Firma nach dem Apple-Verlust sich an Chinesen verkauft hat.

BoMbY
2018-04-06, 21:10:40
Vielleicht auch beides? CPU+GPU für Mobile und mehrere GPUs als "High End"-Lösung? Dann bliebe aber abzuwarten, wie gut letzteres funktioniert.

Der "Chiplet"-Hinweis deutet darauf hin das mehrere GPU-Chips zu einer größeren GPU kombiniert werden können. Das ist etwas woran AMD unter Koduri gearbeitet hat:

https://patents.google.com/patent/US20170200672A1/en?oq=20170200672

Außerdem:


Truly final bonus: Intel’s dGPU Arctic Sound could potentially be an MCP, with between two and four dies depending on the configuration.


https://twitter.com/TMFChipFool/status/982056227940204544

nikk
2018-04-07, 18:14:45
Wie oft kommt der ImgTec-Quatsch noch?

Offensichtlich überfordert dich das Thema. Dediziertes Raytracing ist kein Quatsch, sondern die viel effizientere Möglichkeit Raytracing zu nutzen. Mit herkömmlichem GPGPU-Raytracing bräuchte man einen riesigen Fertigungsvorsprung, um ähnlich effizient zu sein. Dass dedizierte Hardware viel effizienter ist, sollte selbst dir bekannt sein (siehe Intel Quick Sync, ASIC-Mining etc.).

Der Chip existiert nicht, wird nirgendwo verkauft.


Du hast keine Ahnung. Den Vorgänger konnte man bereits 2013 kaufen:
"The Caustic R2500 is the full-size card for dual CPU workstations, with two RTUs and 16GB RAM and is priced at $1,495." (https://www.imgtec.com/blog/caustic-previews-r2500-and-r2100-openrl-ray-tracing-pc-boards-at-ces-2013/)

Wäre das ganze so gut, wäre ImgTec der #1 Lieferant in der Filmbranche.


IMG ist kein Lieferant sondern ein IP-Entwickler.
Den folgenden Artikel kennst du offenbar noch nicht:
https://home.otoy.com/otoy-and-imagination-unveil-breakthrough-powervr-ray-tracing-platform/


Es hat sein Grund, wieso die Firma nach dem Apple-Verlust sich an Chinesen verkauft hat.

Der Grund ist der Apple-Verlust. Dadurch hat IMG die Hälfte seiner Einnahmen verloren. Deine Polemik gegen dediziertes Raytracing ist unsachlich.

Fragman
2018-04-10, 13:49:05
Offensichtlich überfordert dich das Thema. [/url]


dich vielleicht auch?

hardware allein bringt genau nichts, wenn man keine software unterstuetzung hat. das ist der grund, weshalb nvidia damals mental images gekauft hat. mit dem know how hat man dann cuda, und gpu rendering im allgemeinen, aufgebaut. heute haben wir mit optix das entsprechende rendering backend und jeder kann es nutzen wenn er will.

sowas haette imgtec auch machen muessen inkl beispielintegrierungen in render engines. DANN, und nur dann, haette man denen diese renderboards aus den haenden gerissen. alles andere reicht am ende nur zum staubfaenger in irgendwelchen nerdkisten.

gravitationsfeld
2018-04-10, 19:30:20
Die DXR-Spec sieht auf jeden Fall so aus als koennte man Hardware dafuer bauen.

basix
2018-04-10, 20:11:45
@ nikk:
In dem von dir verlinkten Artikel steht was vo 100M Rays bei 2W. Wenn für DXR 2spp ausreichen können, sollten dann also für 4k @ 60fps ca. 1000M Strahlen ausreichen? Oder rechne ich da was falsch bei 2 Bounces / Strahlen pro Pixel? 1000M Strahlen wären mit 20W nämlich gut machbar vom Energueverbrauch her.

Fragman
2018-04-11, 10:18:46
@ nikk:
In dem von dir verlinkten Artikel steht was vo 100M Rays bei 2W. Wenn für DXR 2spp ausreichen können, sollten dann also für 4k @ 60fps ca. 1000M Strahlen ausreichen? Oder rechne ich da was falsch bei 2 Bounces / Strahlen pro Pixel? 1000M Strahlen wären mit 20W nämlich gut machbar vom Energueverbrauch her.

wobei man hier ja das wichtigste nicht vergessen darf, den denoise filter.
selbst wenn du 2 rays in realtime rendern kannst, solang die hardware kein denoising in hardware kann, reichen diese 2 rays bei weitem nicht aus.

die performance allgemein ist bisher ja spekulation. aber wenns aktuell ne volta braucht, nur fuers denoising bei 1 ray, dann wird wohl die ray generation nicht das problem sein?
(und wir wissen ja auch nicht, wieviel rays volta schaffen koennte, wenn es nur darum gehen wuerde).

basix
2018-04-11, 10:48:18
Klar, Denoising braucht man ebenfalls. Aber bei irgendwo 20-50W für das "volle" Raytracing Programm wäre das doch nicht schlecht. Ich weiss jetzt nicht, wie viel Anteil Beleuchtung vom Energiebudget bei normalen Rasterizern einnimmt. Es braucht ja noch anderweitig Shading, Texturierung, Compute usw.

Kurzum: Ich halte es für realistisch, dass man mit spezialisierter HW innerhalb von GPUs mit 10nm (Intel) / 7nm (Foundries) oder auch jeweils einen Fertigungsschritt weiter genug Platz und Energiebudget für einen "richtigen" Raytracer in HW hat. Vielleicht ist das ja Rajas momentane Spielwiese ;)

Ailuros
2018-04-11, 17:46:03
Offensichtlich überfordert dich das Thema. Dediziertes Raytracing ist kein Quatsch, sondern die viel effizientere Möglichkeit Raytracing zu nutzen. Mit herkömmlichem GPGPU-Raytracing bräuchte man einen riesigen Fertigungsvorsprung, um ähnlich effizient zu sein. Dass dedizierte Hardware viel effizienter ist, sollte selbst dir bekannt sein (siehe Intel Quick Sync, ASIC-Mining etc.).

Du hast keine Ahnung. Den Vorgänger konnte man bereits 2013 kaufen:
"The Caustic R2500 is the full-size card for dual CPU workstations, with two RTUs and 16GB RAM and is priced at $1,495." (https://www.imgtec.com/blog/caustic-previews-r2500-and-r2100-openrl-ray-tracing-pc-boards-at-ces-2013/)

IMG ist kein Lieferant sondern ein IP-Entwickler.
Den folgenden Artikel kennst du offenbar noch nicht:
https://home.otoy.com/otoy-and-imagination-unveil-breakthrough-powervr-ray-tracing-platform/

Der Grund ist der Apple-Verlust. Dadurch hat IMG die Hälfte seiner Einnahmen verloren. Deine Polemik gegen dediziertes Raytracing ist unsachlich.

Die RT Abteilung wurde eingestampft und das gesamte team entlassen weil es Gefahr gab dass jegliche US IP (ebenso wie MIPS) den Verkauf an Canyon Bridge behindert haette. Falls im Zweifel "legacy GPU cores" hat wohl schon seine Bedeutung: https://www.imgtec.com/legacy-gpu-cores/ Nach dem Canyon Bridge Kauf wird Wizzard GPU/RT IP noch irgendwelche RT IP nicht mehr verkauft bzw. unterstuetzt. Die Affaere ist tot.

James McCombe hat mit anderen ViewMagic gegruendet: https://www.viewmagic.com/team

gravitationsfeld
2018-04-13, 03:54:31
Wer hat die Patente gekauft?

Ailuros
2018-04-13, 17:10:21
Wer hat die Patente gekauft?

Niemand; die gesamte Investition wurde ins Klo gespuelt. Das RT team war in einer kleinen Abteilung in den Staaten und die engineers dort wurden am Anfang der Verhandlungen mit CB entlassen. Sie koennen froh sein dass sie so kurzfristig noch etwas fuer MIPS bekommen konnten; besser weniger als gar nichts......

BoMbY
2018-04-26, 09:28:14
Jim Keller wechselt scheinbar von Tesla zu Intel ...

https://www.tweaktown.com/news/61675/amd-cpu-hero-jim-keller-leaving-tesla-join-intel/index.html

https://www.golem.de/news/autopilot-teslas-chipentwickler-jim-keller-verlaesst-das-unternehmen-1804-134075.html

deekey777
2018-04-26, 09:29:21
Jim Keller wechselt scheinbar von Tesla zu Intel ...

https://www.tweaktown.com/news/61675/amd-cpu-hero-jim-keller-leaving-tesla-join-intel/index.html

https://www.golem.de/news/autopilot-teslas-chipentwickler-jim-keller-verlaesst-das-unternehmen-1804-134075.html
Und was hat das mit Intels GPU-Plänen zu tun?

basix
2018-04-26, 09:47:55
Vielleicht weil er bei Tesla AI-Chips entwickelt hat? Klar geht das auch per CPU, eine GPU bietet sich hier aber eher an (AI benötigt viel Bandbreite)

deekey777
2018-04-26, 09:58:30
Vielleicht weil er bei Tesla AI-Chips entwickelt hat? Klar geht das auch per CPU, eine GPU bietet sich hier aber eher an (AI benötigt viel Bandbreite)
Vielleicht, vielleicht, vielleicht. Und das war's schon.

BoMbY
2018-04-26, 11:01:52
Und was hat das mit Intels GPU-Plänen zu tun?

Er soll mit Raja zusammen arbeiten?

deekey777
2018-04-26, 11:06:13
Er soll mit Raja zusammen arbeiten?
Liest du, was du verlinkst?

basix
2018-04-26, 11:13:21
Vielleicht, vielleicht, vielleicht. Und das war's schon.

Da musste ich lachen ;D Wir sind in einem Speku-Thread. Viel mehr als vielleicht gibt es hier nicht. Nur weil du "denkst", dass es nichts mit GPUs zu tun hat heisst nicht, dass es so ist ;)

Ob es nun eher Richtung FPGAs oder was auch immer geht ist nicht klar. Dennoch sind es eher GPUs oder etwas was einer GPU ähnlicher sieht als CPUs, siehe meine Anmerkung zur Bandbreite. Dazu gibt es nämlich sehr schöne Untersuchungen von Google und ihrer TPU. Und Intel wäre doof, wenn sie nicht etwas ähnliches wie Nvidia mit V100 auf die Beine stellen. Wahrscheinlich noch ein wenig stärker auf HPC und AI ausgelegt aber vom Prinzip her ähnlich.

Von mir aus kannst du jetzt ausführen, wieso Jim Keller definitiv nichts mit GPUs am Hut haben wird. Ich warte gespannt ;)

BoMbY
2018-04-26, 11:14:06
Liest du, was du verlinkst?

Bist Du blind, oder ist englisch zu schwer?

Raja will be building out the IP blocks for the CPU and GPU side of things for Intel, while Keller will take those IP blocks and build chip designs out of them.

https://www.tweaktown.com/news/61675/amd-cpu-hero-jim-keller-leaving-tesla-join-intel/index.html

deekey777
2018-04-26, 11:28:27
Bist Du blind, oder ist englisch zu schwer?



https://www.tweaktown.com/news/61675/amd-cpu-hero-jim-keller-leaving-tesla-join-intel/index.html
Ich gebe es auf, ist sinnlos.

Schnell was in den Thread reingepostet, in dem es um diskrete GPUs geht. Selbst das, was du zitierst, hat nichts mit dem Thema zu tun.

Locuza
2018-04-26, 13:28:16
Nehmen wir der Inhalt aus dem Zitat stimmt, inwiefern haben GPU IP Blocks nichts mit dem Thread zu tun und inwiefern wäre es ausgeschlossen, dass Jim Keller auch an GPU Produkten beteiligt ist?

Edit: Jim Keller arbeitet nun offiziell bei Intel und laut eigener Beschreibung an CPUs, GPUs, Beschleunigern und anderen Produkten, also praktisch fast allem was Daten berechnet.
"I am excited to join the Intel team to build the future of CPUs, GPUs, accelerators and other products for the data-centric computing era."
https://newsroom.intel.com/news-releases/jim-keller-joins-intel-lead-silicon-engineering/

deekey777
2018-04-30, 09:46:37
Nehmen wir der Inhalt aus dem Zitat stimmt, inwiefern haben GPU IP Blocks nichts mit dem Thread zu tun und inwiefern wäre es ausgeschlossen, dass Jim Keller auch an GPU Produkten beteiligt ist?

Edit: Jim Keller arbeitet nun offiziell bei Intel und laut eigener Beschreibung an CPUs, GPUs, Beschleunigern und anderen Produkten, also praktisch fast allem was Daten berechnet.
"I am excited to join the Intel team to build the future of CPUs, GPUs, accelerators and other products for the data-centric computing era."
https://newsroom.intel.com/news-releases/jim-keller-joins-intel-lead-silicon-engineering/
Klar doch.
Ich habe eine noch bessere Idee: Wir durchforsten das Internet, vielen findet sich eine Reinigungskraft, die bei Raja im Büro für die Sauberkeit und Ordnung sorgt, und posten das hier. Schließlich bringt eine solche Reinigungskraft Intels Pläne weiter, der Sauberkeit ist Trumpf!

https://newsroom.intel.com/news-releases/jim-keller-joins-intel-lead-silicon-engineering/

SANTA CLARA, Calif., April 26, 2018 – Intel today announced that Jim Keller will join Intel as a senior vice president. He will lead the company’s silicon engineering, which encompasses system-on-chip (SoC) development and integration.

Chris Hook jetzt bei Intel: http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/Marketing-Chef-Chris-Hook-verlaesst-AMD-1254300/

Er heuert dort als Marketing-Chef der Visual Technologies Group und Discrete Graphics an. Damit steuert er unter anderem die Vermarktungsstrategien für mögliche (allerdings bislang nicht angekündigte!) Grafikprodukte von Intel. Ob darunter auch dedizierte Gamer-Grafikkarten fallen, ist offen. Das Feld diskreter Grafikprodukte ist weit

Wenn er aber die gleiche Arbeit leistet wie bei RX Vega...

nagus
2018-04-30, 09:50:05
Mit Chris Hook hat Intel wirklich eine „tollen“ Fang gemacht 😂

Locuza
2018-04-30, 10:07:32
Klar doch.
Ich habe eine noch bessere Idee: Wir durchforsten das Internet, vielen findet sich eine Reinigungskraft, die bei Raja im Büro für die Sauberkeit und Ordnung sorgt, und posten das hier. Schließlich bringt eine solche Reinigungskraft Intels Pläne weiter, der Sauberkeit ist Trumpf!
[...]
Saubere Antwort auf die Frage, wieso Kellers mögliche Mitwirkung bei der GPU-IP nichts mit dem Thread zu tun hat, was mittlerweile offiziell bestätigt wurde. :up:

fondness
2018-04-30, 10:15:29
Seine offizielle Position ist "lead of silicon engineering". Er leitet also praktisch alles was mit Chipentwicklung zu tun hat. Nicht schlecht für jemanden der von außen kommt, Keller hat sich über die Jahre wohl einen sehr guten Ruf erarbeitet.

Igor TH
2018-04-30, 10:45:02
Ich hatte heute Nacht noch einen Chat mit Chris Hook. Der wird jetzt der neue Lautsprecher bei Intel :D
...I'm going to be leading marketing for visual technologies and dGFX products at Intel, becoming, in effect, their first dGFX marketer, driving strategy across verticals for the eventual launch of dGFX products...

...Jim Keller, Raja Koduri, Ari Rauch - you don't get a better team than that....

...That might be a while. But I'm going to push them to have some more regular engagements on graphics...


Schaun wir mal, was wird. Bissl Abwechslung könnte nicht schaden.

y33H@
2018-04-30, 11:02:54
Joa, volle Latte bei FB:

Friends,
I’m exhilarated and energized to be starting a new marketing leadership role at Intel in Santa Clara, CA.

Intel is a company I’ve long admired and is without a doubt the finest silicon engineering company in the world. It also has a rich history of processor innovation dating back to the Intel 4004, which was released the year I was born. It has an equally rich history in marketing innovation, having succeeded what was once the unthinkable - turning what started as an unassuming 16-pin black ceramic integrated circuit into a household name and notable consumer brand.

As many of you know, it was recently announced that Intel is embarking on a journey to expand its leading position in integrated graphics for PC with high-end discrete graphics solutions for a broad range of computing segments, and will be growing its technology portfolio across computing, graphics, media, imaging and machine intelligence for clients and data centers, AI, and edge computing.

That’s a pretty exciting journey, and one I personally want to be part of. So starting tomorrow, I’ll be assuming a new role in which I’ll be driving the marketing strategy for visual technologies and upcoming discrete graphics products.
I’m also excited to meet the Intel team. The folks I’ve met there so far are the best in the world at what they do; they’re laser-smart and driven to win. And there are also a few good Intel folks that I’ve had the privilege of working with in the past at AMD, world-class engineering leaders Ari Rauch, Raja Koduri and Jim Keller, who at multiple points in their careers have architected and engineered some of the most respected software and silicon in history.

So here’s to the future – one with competition, choice and incredible technology.

Cheers,
Chris

Igor TH
2018-04-30, 11:19:08
Er hatte den FB-Sermon vorher privat im Messenger angekündigt - mit "NDA" quasi (at noon PT). Nun ja, man wird abwarten müssen, was und wie.

Zumindest hat er sich extra einen neuen Anzug gekauft und wochenlang veggy diet gemacht. Und das als Member der "BBQ & MSG Connection". Ich bin geschockt. :D

mboeller
2018-04-30, 14:15:06
Intel kauft sich anscheinend gerade ein wenig externe Kompetenz zusammen um ihren Wagen wieder auf Spur zu bringen. Mal sehen wie viel Reibung das verursacht. :)

Hübie
2018-04-30, 15:57:49
Vielleicht, aber auch nur vielleicht, meinen die es endlich mal ernst. Konkurrenz belebt bekanntlich das Geschäft. Wäre wünschenswert, wenn es ein Milliarden schwerer Konzern endlich schafft wieder innovativ zu sein ohne ständig Startups zu kaufen. :D

Man stelle sich eine Grafikkarte von Intel mit guten Treibern vor... oder generell ein konkurrenzfähiges Produkt. :naughty:

Blediator16
2018-04-30, 16:02:12
Bei AMD wurde laut GN einiges aus dem Marketing aussortiert und neue Leute sind da. Der Abfall landet nun bei Intel? Poor Zen/Navi incoming. Make some noise for 10nm und 10nm rebellion hab ich ganz vergessen ;D

=Floi=
2018-05-01, 00:16:36
Man darf sich aber schon fragen, warum man die posten nicht mit internen köpfen besetzt. ich kann mir schwer vorstellen, dass da nur deppen sitzen.
Das fasziniert mich mittlerweile mehr, weil der konzern so groß und breit aufgestellt ist und man GPUs schon ein paar jahre entwickelt. Auf einmal stellt man alles wieder auf null.

Poook
2018-05-01, 09:49:51
Die schlauen Posten lassen sich in der Regel nicht ohne Beförderung und entsprechender Gehaltserhöhung verschieben ;)

scully1234
2018-05-01, 09:57:45
Man darf sich aber schon fragen, warum man die posten nicht mit internen köpfen besetzt. ich kann mir schwer vorstellen, dass da nur deppen sitzen.
Das fasziniert mich mittlerweile mehr, weil der konzern so groß und breit aufgestellt ist und man GPUs schon ein paar jahre entwickelt. Auf einmal stellt man alles wieder auf null.

Vielleicht verlangts Raja nach seiner gewohnten Entourage, und der Familiennachzug wird nun gemanagt, vom Intel Einreisebüro

Auch ne Möglichkeit die Radeongroup nach u nach auszuplündern, und dabei weniger Kartellkopfschmerzen zu haben

Vielleicht hat man Keller auch nur 2 Jahre bei Tesla geparkt , weil die Verträge keinen direkten Wechsel zuließen...

AffenJack
2018-05-01, 10:02:17
Man darf sich aber schon fragen, warum man die posten nicht mit internen köpfen besetzt. ich kann mir schwer vorstellen, dass da nur deppen sitzen.
Das fasziniert mich mittlerweile mehr, weil der konzern so groß und breit aufgestellt ist und man GPUs schon ein paar jahre entwickelt. Auf einmal stellt man alles wieder auf null.

Wenn so eine Riesenfirma wie Intel Jahrelang in einer Situation ist, wo man keine Konkurrenz hat, dann entwickelt sich da so ein Bürokratiemoloch, dass du das intern nicht lösen kannst. Du brauchst einfach mal Leute von Außen die einen anderen Blick darauf haben und Prozesse effizienter gestalten können. Konkurenzlose Konzerne werden immer äußerst träge nach einiger Zeit. Wenn so eine Kultur der Weiterentwicklung mit minimalstem Risiko erstmal etabliert ist, dann änderst du die nicht einfach. Entweder du holst dir ne Unternehmensberatung die aufräumt oder neue Leute.

fondness
2018-05-01, 12:34:43
Vielleicht hat man Keller auch nur 2 Jahre bei Tesla geparkt , weil die Verträge keinen direkten Wechsel zuließen...

Konkurrenzklauseln sind im Silicon Valley verboten. Mit ein Grund, warum die Firmen dort so erfolgreich sind.

Wenn so eine Riesenfirma wie Intel Jahrelang in einer Situation ist, wo man keine Konkurrenz hat, dann entwickelt sich da so ein Bürokratiemoloch, dass du das intern nicht lösen kannst. Du brauchst einfach mal Leute von Außen die einen anderen Blick darauf haben und Prozesse effizienter gestalten können. Konkurenzlose Konzerne werden immer äußerst träge nach einiger Zeit. Wenn so eine Kultur der Weiterentwicklung mit minimalstem Risiko erstmal etabliert ist, dann änderst du die nicht einfach. Entweder du holst dir ne Unternehmensberatung die aufräumt oder neue Leute.

Sehe ich genauso. Eine Krise ist immer auch eine Chance. AMD hat in den letzten Jahren sehr viele nötige Umstrukturierungen gemanaged, Prozesse effizienter gestaltet und viele neue Leute geholt. Intel hat als defacto Monopolist nie eine Existenzbedrohende Krise erlebt. Das man sich jetzt zum wiederholten male von einer knapp vor den Bankrott stehende Firma mit lächerlich wenig Ressourcen vorführen lassen muss, ist für Intel peinlich genug. Aber offensichtlich braucht es solche Ereignisse, damit der Moloch sich bewegt.

TheGood
2018-05-01, 22:20:06
Bei AMD wurde laut GN einiges aus dem Marketing aussortiert und neue Leute sind da. Der Abfall landet nun bei Intel? Poor Zen/Navi incoming. Make some noise for 10nm und 10nm rebellion hab ich ganz vergessen ;D
#Ich sag nur das "Poor Volta" spielte darauf an dass Volta nicht als Gaming erscheinen wird und AMD das bereits wusste ;) dann wird ein Schuh draus :)

Blediator16
2018-05-01, 22:31:31
#Ich sag nur das "Poor Volta" spielte darauf an dass Volta nicht als Gaming erscheinen wird und AMD das bereits wusste ;) dann wird ein Schuh draus :)

Lächerlich bleibt es trotzdem, ob die nächste Kartenserie in einigen Monaten Volta oder Turning heißt. :rolleyes:

BlacKi
2018-05-02, 00:32:38
#Ich sag nur das "Poor Volta" spielte darauf an dass Volta nicht als Gaming erscheinen wird und AMD das bereits wusste ;) dann wird ein Schuh draus :)
1. woher will amd gewusst haben, das volta only hpc kommt
2. und warum ist das dann poor?

scully1234
2018-05-02, 08:23:06
1. woher will amd gewusst haben, das volta only hpc kommt
2. und warum ist das dann poor?

die wussten zu dem Zeitpunkt nichtmal wo sie ihren Vega einsortieren mussten:P

mboeller
2018-05-02, 12:47:56
Wenn so eine Riesenfirma wie Intel Jahrelang in einer Situation ist, wo man keine Konkurrenz hat, dann entwickelt sich da so ein Bürokratiemoloch, dass du das intern nicht lösen kannst. Du brauchst einfach mal Leute von Außen die einen anderen Blick darauf haben und Prozesse effizienter gestalten können. Konkurenzlose Konzerne werden immer äußerst träge nach einiger Zeit. Wenn so eine Kultur der Weiterentwicklung mit minimalstem Risiko erstmal etabliert ist, dann änderst du die nicht einfach. Entweder du holst dir ne Unternehmensberatung die aufräumt oder neue Leute.

... und genau deshalb bezweifle ich, dass Intel sich durch die neuen Mitarbeiter wirklich ändern wird. Intel steht nicht, wie damals AMD mit dem Rücken zur Wand (bzw. bereits in der Wand) sondern verdient sehr viel Geld. Die Beharrungskräfte sind deshalb wesentlich stärker, schließlich funktioniert doch alles so wie es soll (mit Ausnahme des 10nm Prozesses).

Ergo, ich erwarte nicht, dass sich bei Intel durch Raja und Keller was ändern wird. Die beiden werden sich IMHO eher an der internen Bürokratie aufreiben.

Lehdro
2018-05-02, 16:44:58
Die Beharrungskräfte sind deshalb wesentlich stärker, schließlich funktioniert doch alles so wie es soll (mit Ausnahme des 10nm Prozesses).
- Larrabee
- Intels "Ausflug" in den Handymarkt
- Apple wendet sich von Intel ab
- Intel hatte schon vor 2 Jahren Probleme die eigenen Fabs vernünftig auszulasten mit Fremddesigns
- Intels "make it wearable"
- KabyLake X
- Meltdown & Spectre
- Intel AMT Sicherheitslücke
- McAfee :redface:

Jo, läuft alles rund bei Intel, bis halt auf 10nm :freak:

Ergo, ich erwarte nicht, dass sich bei Intel durch Raja und Keller was ändern wird. Die beiden werden sich IMHO eher an der internen Bürokratie aufreiben.
Ich denke Intel wird sich intern ganz schön drehen. Wird Zeit das da mal frischer Wind durchzieht.

mboeller
2018-05-02, 17:10:15
Jo, läuft alles rund bei Intel, bis halt auf 10nm :freak:


Ja!

https://www.heise.de/newsticker/meldung/Intel-erzielt-ueber-16-Milliarden-US-Dollar-Umsatz-im-ersten-Quartal-4036966.html

darauf kommt es doch an. Umsatz auf Rekordniveau + sehr guter Gewinn


Insgesamt kam Intel im vergangenen Quartal auf einen Umsatz von gut 16 Milliarden Dollar, nach rund 14,8 Milliarden US-Dollar im Vorjahresquartal. Der Gewinn stieg von knapp 3 auf 4,4 Milliarden Dollar an.


Was anderes interessiert doch nicht. ;)


Ich denke Intel wird sich intern ganz schön drehen.

IMHO nein


Wird Zeit das da mal frischer Wind durchzieht.

definitiv!

HOT
2018-05-02, 18:09:36
Im Verhältnis zu früheren Zeiten ist Umsatz/Gewinn aber dann nicht mehr so toll. Man musste halt immer mehr umsetzen um die Gewinne halten zu können. Und dann rechne mal die Inflation mit ein.

bbott
2018-05-02, 22:29:34
- Larrabee
- Intels "Ausflug" in den Handymarkt
- Apple wendet sich von Intel ab
- Intel hatte schon vor 2 Jahren Probleme die eigenen Fabs vernünftig auszulasten mit Fremddesigns
- Intels "make it wearable"
- KabyLake X
- Meltdown & Spectre
- Intel AMT Sicherheitslücke
- McAfee :redface:

Jo, läuft alles rund bei Intel, bis halt auf 10nm :freak:


Trotz allem jagt Intel von einem Rekord Quartal und Jahr zu andren und AMD schafft es trotz Ryzen gerade so in die Gewinnzone.

gmb
2018-05-02, 22:42:08
Trotz allem jagt Intel von einem Rekord Quartal und Jahr zu andren und AMD schafft es trotz Ryzen gerade so in die Gewinnzone.


Schau dir mal an, was im mobile Bereich abgeht mit Ryzen, quasi nichts. Dann muss man sich nicht wundern.

Lehdro
2018-05-02, 22:46:21
Trotz allem jagt Intel von einem Rekord Quartal und Jahr zu andren und AMD schafft es trotz Ryzen gerade so in die Gewinnzone.
Und jetzt mal 5 Sekunden nachdenken:

Wie würde Intels Gewinn aussehen wenn auch nur eins der genannten Produkte zusätzlich gut eingeschlagen wäre?

Was hat AMD mit Intel in dem Zusammenhang zu tun?

TheGood
2018-05-02, 23:15:03
1. woher will amd gewusst haben, das volta only hpc kommt
2. und warum ist das dann poor?


Warum sollten Sie es nicht gewusst haben ;)

gravitationsfeld
2018-05-02, 23:39:05
Ich kann mir es einfach nicht vorstellen, dass Intel es schafft eine wettbewerbsfaehige GPU zu bauen. Weder in Hardware noch in Software.

Sie haben so wie es derzeitig aussieht nicht mal mehr einen Fertigungsvorteil gegenueber AMD und NVIDIA und ihre Architektur ist meilenweit schlechter.

Da muesste schon ein mittleres Wunder geschehen. Vielleicht haben sie deshalb Keller geholt?

BlacKi
2018-05-03, 00:14:03
Warum sollten Sie es nicht gewusst haben ;)
ich hab gefragt woher.

Hübie
2018-05-03, 00:21:42
Na zumindest die Feature Checklist kann sich bei Intel sehen lassen. :D Aber die Treiber sind oftmals ein Graus. Von der Hardware her, finde ich die halt flächenmäßig relativ groß. Wenn man jetzt aber mal die 72 EUs nimmt ist die Performance doch gar nicht so übel oder irre ich? :|

Locuza
2018-05-03, 00:23:12
@ gravitationsfeld

Ich kann mir das gut vorstellen, vor allem in Vergleich zu AMD.
Intel hat massiv aufgeholt, verglichen mit dem Zeug was damals bei Westmere zu finden war und praktisch nur dazu da war ein Bild auf dem Desktop auszugeben.
Da Intel auch so weit unten angefangen hat, war es natürlich nur logisch das sie große Sprünge hinlegen konnten und das wird sich fortsetzen.
Gen 9 war schon ein massiver Sprung, zwar nicht direkt bei der effektiven Leistung, aber bei den Features und ein paar Effizienzverbesserungen im Design wie einfacheres Scheduling oder Framebuffer-Kompression wurde eingebaut.

Da Intel den 10nm Schritt effektiv verkackt hat, stagnierte die Entwicklung.
Die Nachfolgeprodukte haben einen Verzug von 3-4 Jahren und es gab deswegen auch eine Menge Personal-Dynamik.
Intel fokussiert sich aber erneut und hat schon eine Menge an Personal erbeutet, wie Raja Koduri, Jim Keller, Joshua Barczak, Chris Hook und sie haben mehrere hundert Stellenausschreibungen bezogen auf GPU-Positionen.

gravitationsfeld
2018-05-03, 00:50:01
Haben sie nicht, Gen 9 ist absoluter Muell was Perf/Flaeche angeht bei gleichem Prozess. Mindestens Faktor 2x weniger FLOPs im Vergleich zu NVIDIA.

Locuza
2018-05-03, 01:08:48
Haben sie wohl, in Relation dazu das Gen9 eine echte Feature-Sau darstellt mit der ganzen DX12-Spec, ASTC, nativem 16x MSAA in Hardware, Quarter-Rate FP64, Double-Rate FP16 usw.
Historisch betrachtet hat Intel eine ganze andere Position mit Gen9 einnehmen können, im Vergleich zu früher, wo man mehrere Jahre gebraucht hat, nur um die aktuelle Version der üblichen APIs zu unterstützen.
Mit Gen9 hat man einen Feature-Creep gebaut, welche die Konkurrenz indem Aspekt um mehrere Jahre geschlagen hat.

Das die Perf/Watt und Perf/mm² im Vergleich zur Konkurrenz mies ausfällt, ist nachvollziehbar, da Intel viele Stellen overengeniered hat und an vielen Stellen sparen könnte.
Auf der anderen Seite muss Intel natürlich viel mehr Leute und R&D an die Sache legen, um aufzuholen und das geschieht aktuell (wieder).

AMD muss auch schauen, dass sie deutlich an Tempo gewinnen, ansonsten hätte ich keine Zweifel daran, dass Intel 2020+ AMD bei den GPUs gefährlich nahe kommt.

Nvidia ist dann noch einmal eine extra Messlatte und da erwarte ich Intel nicht in Reichweite.

reaperrr
2018-05-03, 01:48:25
AMD muss auch schauen, dass sie deutlich an Tempo gewinnen, ansonsten hätte ich keine Zweifel daran, dass Intel 2020+ AMD bei den GPUs gefährlich nahe kommt.

Nvidia ist dann noch einmal eine extra Messlatte und da erwarte ich Intel nicht in Reichweite.
Wenn 10nm nicht so ein Reinfall und v.a. so spät dran wäre, hätte Intel mMn schon fast zu Raven Ridge aufgeschlossen.

Je nach Spiel sind 2200G/2400G zwar zwischen 100 und 200% schneller als die KBL/CFL-IGP, aber Ice Lake erhöht die Zahl der EUs von 24 auf 64 und ist Gen11, sollte also zusätzlich Architektur-Verbesserungen haben.

Normalisiert auf den gleichen Prozess wäre AMD sicher trotzdem (noch) vorn, aber zumindest von der reinen Performance kann sich AMD echt doppelt und dreifach glücklich schätzen, dass Intel mit dem Prozess solche Probleme hat. Denn es gibt genug OEMs, die RR wohl komplett links liegen gelassen hätten, wenn Intel die IGP-Leistung seit Skylake auch nur verdoppelt hätte.

gravitationsfeld
2018-05-03, 03:33:52
Haben sie wohl, in Relation dazu das Gen9 eine echte Feature-Sau darstellt mit der ganzen DX12-Spec, ASTC, nativem 16x MSAA in Hardware, Quarter-Rate FP64, Double-Rate FP16 usw.
Historisch betrachtet hat Intel eine ganze andere Position mit Gen9 einnehmen können, im Vergleich zu früher, wo man mehrere Jahre gebraucht hat, nur um die aktuelle Version der üblichen APIs zu unterstützen.
Mit Gen9 hat man einen Feature-Creep gebaut, welche die Konkurrenz indem Aspekt um mehrere Jahre geschlagen hat.
Wenn's denn so waere. Die Hardware hat z.B. absolut bescheuerte Limitationen was Resource Heaps angeht.

AMD GCN ist in der Realitaet mit Abstand die einfachste GPU zu programmieren. Keine Limits, alles indizierbar.

=Floi=
2018-05-03, 10:49:16
alleine der treiber. leistung alleine ist nicht alles. Daran scheitert es.
dazu noch 1 generation support.


Viele rechner brauchten oft nicht mehr wie "nur ein bild ausgeben". Das war der grundgedanke und dafür waren die GPUs damals gut genug.

][immy
2018-05-03, 11:19:41
Wenn 10nm nicht so ein Reinfall und v.a. so spät dran wäre, hätte Intel mMn schon fast zu Raven Ridge aufgeschlossen.

Je nach Spiel sind 2200G/2400G zwar zwischen 100 und 200% schneller als die KBL/CFL-IGP, aber Ice Lake erhöht die Zahl der EUs von 24 auf 64 und ist Gen11, sollte also zusätzlich Architektur-Verbesserungen haben.

Normalisiert auf den gleichen Prozess wäre AMD sicher trotzdem (noch) vorn, aber zumindest von der reinen Performance kann sich AMD echt doppelt und dreifach glücklich schätzen, dass Intel mit dem Prozess solche Probleme hat. Denn es gibt genug OEMs, die RR wohl komplett links liegen gelassen hätten, wenn Intel die IGP-Leistung seit Skylake auch nur verdoppelt hätte.
eigentlich hindert AMD nichts daran die GPUs in den APUs ebenfalls größer ausfallen zu lassen.
Zwar limitiert irgendwann einfach das Speicherinterface aber es sollte jederzeit reichen um Meilenweit vor Intel zu sein.

fondness
2018-05-03, 16:13:24
Haben sie wohl, in Relation dazu das Gen9 eine echte Feature-Sau darstellt mit der ganzen DX12-Spec, ASTC, nativem 16x MSAA in Hardware, Quarter-Rate FP64, Double-Rate FP16 usw.
Historisch betrachtet hat Intel eine ganze andere Position mit Gen9 einnehmen können, im Vergleich zu früher, wo man mehrere Jahre gebraucht hat, nur um die aktuelle Version der üblichen APIs zu unterstützen.
Mit Gen9 hat man einen Feature-Creep gebaut, welche die Konkurrenz indem Aspekt um mehrere Jahre geschlagen hat.

Ich sehe nichts relevantes, was ein Vega in RavenRidge nicht ebenso hätte.


AMD muss auch schauen, dass sie deutlich an Tempo gewinnen, ansonsten hätte ich keine Zweifel daran, dass Intel 2020+ AMD bei den GPUs gefährlich nahe kommt.

Nvidia ist dann noch einmal eine extra Messlatte und da erwarte ich Intel nicht in Reichweite.

Wenn du Spieleleistung betrachtest, GPGPU ist AMD nach wie vor sehr konkurrenzfähig.

Hübie
2018-05-03, 19:25:44
Wenn's denn so waere. Die Hardware hat z.B. absolut bescheuerte Limitationen was Resource Heaps angeht.

Hatte NV da nicht einiges per Treiber aufgelockert? Ginge das auch mit Intel-HW oder sind das einfach nur workarounds die Performance kosten? :confused:

gravitationsfeld
2018-05-03, 19:46:28
Intel hat keine Moeglichkeit es im Treiber zu beheben.

Locuza
2018-05-03, 20:10:03
Wenn's denn so waere. Die Hardware hat z.B. absolut bescheuerte Limitationen was Resource Heaps angeht.

AMD GCN ist in der Realitaet mit Abstand die einfachste GPU zu programmieren. Keine Limits, alles indizierbar.
Mir ist es auch aufgefallen das bei GPUinfo Gen9 praktisch keine höheren Limits hat als Gen8 und damit allgemein sehr niedrig ausfällt.
Ich nehme mal an, für das Resource Binding Tier 3 unter DX12 trickst Intel ebenso, um die Kompatibilität zu erreichen.

Aber abgesehen davon hat Intel die restlichen Features nicht umsonst durch die Software implementiert.

Ich sehe nichts relevantes, was ein Vega in RavenRidge nicht ebenso hätte.

Wenn du Spieleleistung betrachtest, GPGPU ist AMD nach wie vor sehr konkurrenzfähig.
Seit Vega fehlt AMD bezüglich DX12 Features auch fast nichts.
Aber Vega ist ja auch frische Hardware in Relation.

Bezogen auf Compute war AMD deutlich im Vorteil gegenüber Kepler, seit Maxwell hat Nvidia stark aufgeholt und beim GP100 und GV100 sieht es noch einmal anders aus.
Die Shader-Cluster dort haben effektiv mehr Register/Cache pro "ALU" und Volta hat an sich noch einmal ein besseres Cache-System, geringere Ausführungslatenzen für gängige Mathematik-Operation etc.

Relativ gesehen ist der Vergleich für AMD auch hier deutlich schlechter geworden.

Kriton
2018-05-03, 21:07:59
Wird Intel hier nicht ein Problem mit Patenten bekommen, also in dem Sinne, dass sie einiges, was Sinn macht, einfach nicht realisieren können/dürfen?