PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 17. Januar 2018


Leonidas
2018-01-18, 11:03:59
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-17-januar-2018

Loeschzwerg
2018-01-18, 11:18:49
Intel hatte schon iGPUs mit 48 EU am Laufen (Broadwell GT3) bzw. mit 72 EU in Planung (Skylake GT4, nie realisiert)

Was soll dann bitte Iris Pro (P)580 sein?! ;)

Produkte wären u.a. der NUC6i7KYK oder einige professionelle Produkte wie z.B. das ASRock Rack C236 WSI4-65L.

Edit:
Möglicherweise interessiert dich ja im Nachgang das Thema zu Intel Gen9:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11051723#post11051723

Gast
2018-01-18, 12:17:27
Hm, was ist zur Theorie, das Nvidia jetzt bewusst den Markt verknappt um dann mit Ampere wieder höhere Preise zu verlangen, welche dann natürlich vom aktuellen Vergleichsniveau viel niedriger aussehen als von den ursprünglichen UVP. Bei der aktuellen Marktlage können Sie sich das ja auch gut leisten und Gamer können auch nicht ewig warten...

Complicated
2018-01-18, 12:50:00
Hintergrund ist wohl, das die Grafikkarten-Hersteller kaum noch etwas in den Einzelhandel fließen lassen, sondern lieber direkt ab Werk an Crypto-Miner bzw. Miner-Zulieferer verkaufen. Dabei können dann auch abgespeckte Produkte (spezielle Mining-Modelle) verkauft werden und in jedem Fall fallen Support und langfristige Garantie flach – die Kostenlage sinkt für die Hersteller also, der Gewinn steigt. Womöglich können die Grafikkarten-Hersteller inzwischen auch schon höhere Abgabepreise nehmen, dann würde selbige wenigstens auch einmal ein wenig vom Mining-Boom/Wahn profitieren.

Der letztliche Auslöser des ganzen bleibt aber nach wie von in der zu schwachen Nachlieferung entsprechender Grafikchips von AMD und nVidia zu suchen: Grafikboards herzustellen ist schließlich vergleichsweise unproblematisch, nur ohne ausreichende Anzahl an Grafikchips wird es immer Abnehmer geben, die man dann vertrösten muß.
Hier liegt wohl eindeutig ein Logik-Problem vor: Die Grafikkarten-Hersteller (Sprich OEMs) könnten keine Miner direkt beliefern mit speziellen Miner-Karten, wenn sie keine Grafikchips erhalten würden von den Herstellern Nvidia und AMD.

Mal wieder werden die Handlungen der OEMs den GPU Herstellern zugeschrieben. Das widerlegt auch die Behauptung es würde zu wenig produziert und an die OEMs ausgeliefert wie das manche "Experten" gerne behaupten. Geliefert wird genug an die Boardhersteller - nur welchen Markt diese bedienen bestimmen diese alleine und nicht AMD oder Nvidia.

Gast
2018-01-18, 13:30:06
Amüsant, dass das exakt gleiche Argument 'Kosten' für das genaue Gegenteil - eine möglichst weitgehende Integration - herhalten musste und muss. Ja was denn nun?

Dino-Fossil
2018-01-18, 13:39:07
kann gelöscht werden

Eldoran
2018-01-18, 14:49:36
Es ist klar, dass langsam die ursprüngliche Überlegung von einem kleinen Aufwand mit klarem Mehrwert - wie die ersten APUs bei intel ja nur ein paar Prozent des Dies gebraucht haben. Heute sind aber schon in den "normalen" GT2 Varianten die CPU der kleinere Teil der Fläche. Bei den GT3 Varianten sieht es sicher noch viel extremer aus.

Es könnte aber neben den angesprochenen Gründen, die zumindest oberflächlich Sinn machen, da eben Die Kosten für weitere Varianten reduziert werden können. In dem Zusammenhang wäre auch eine weitere Verbreitung zum Nachfolger von Crystalwell denkbar. Die EMIB will man ja ohnehin einsetzen. Genau da wird es aber unsicher, wie sehr das ganze zu einer Milchmädchenrechnung wird - die EMIB sind laut intel billiger als die Interposer, laut Charlie Demerjan aber nur etwas billiger - man spart sich die TSV. Sonst ist es eher eine Verschiebung der Kosten. Genaue Vergleiche sind nicht möglich - da ist vieles geheim.

Allerdings es gibt noch einen Grund, der für eine Trennung von CPU und GPU sprechen würde - die Fertigungstechnik. Die optimale Fertigungstechnik ist bei CPU und GPU prinzipiell verschieden. Man sieht das ja auch bei den aktuellen Ryzen - die Fertigung ist eigentlich kein für CPUs optimierter Prozess. Bei intel könnte noch ein weiterer Faktor entscheidend gewesen sein: laut Charlie Demerjan sind die Verzögerungen bei Cannon Lake mit einem Problem bei der 10nm Fertigung begründet. Genauer zu Hohe Verlustleistung bei analogen Komponenten. Auch die neue "server first" Strategie deutet darauf hin - es könnten die grössten Probleme bei der 10nm Fertigung bei der GPU zu finden sein. Auch die Beschränkung bei Cannon Lake auf die kleine GT2 Variante könnte nicht nur bei kleinen Stückzahlen und Fläche bei relativ hohen Verkaufspreisen liegen, die auch niedrige Ausbeute erträglich machen, sondern auch bei einer Minimierung des GPU Anteils liegen.

Gast Ritis
2018-01-18, 19:24:52
Das sind aber schon recht wilde Spekulationen zu Intel eigener IP für die künftigen Performance IGPs.

Nur mal so:
In dem Interview von JPMorgan mit Bryant zur CES18 tönt es eigentlich nicht wirklich so, dass die eigene IP dafür verwendet wird, es wird im Anschluss (Kontext?) an KL-G gesagt dass Koduri weitere Entwicklungen vorantreiben wird, womit bleibt offen.

Die dort kolportierte Skalierbarkeit von Intels IGP ist ja gerade nicht gegeben, denn z.B. dort wo es bei den GCN CUs den Local Data Share 64KB und L1Cache 16KB gibt hat es bei den Intelschen EUs nix das geht über die SubSlices.

Da kann man genauso gut ganz anders spekulieren ....
.... die IGP mit dem Slices-Konzept werden grob geflickt und künftig 8 Subslices statt 3 aber dafür jeweils mit weniger EUs am L1 Cache damit die Flexibilität/Skalierbarkeit bei Compute besser wird.

Local Data Share fehlt dann aber immer noch im SubSlice und ob die bei Compute dann gut genug sind um GCN wieder abzulösen?
Ein Äquivaltet zu dem Global Data Share von GCN kann ich auch nicht erkennen, damit müssen die bis zu 3 Slices dann den L3 abgleichen....

Das GCN Konzept ist für Compute doch sehr viel besser geeignet. Allein mit den Tensor Units und vor allem dem CUDA Ecosystem ist nVidia voraus. Aber Intels aktuelle IGP-Architektur?

Schau' mer mal, würd der Kaiser sagen.

Gast Ritis
2018-01-18, 22:47:55
Es ist klar, dass langsam die ursprüngliche Überlegung von einem kleinen Aufwand mit klarem Mehrwert - wie die ersten APUs bei intel ja nur ein paar Prozent des Dies gebraucht haben. Heute sind aber schon in den "normalen" GT2 Varianten die CPU der kleinere Teil der Fläche. Bei den GT3 Varianten sieht es sicher noch viel extremer aus.
...
Allerdings es gibt noch einen Grund, der für eine Trennung von CPU und GPU sprechen würde - die Fertigungstechnik. Die optimale Fertigungstechnik ist bei CPU und GPU prinzipiell verschieden. ...

Auch die Beschränkung bei Cannon Lake auf die kleine GT2 Variante könnte nicht nur bei kleinen Stückzahlen und Fläche bei relativ hohen Verkaufspreisen liegen, die auch niedrige Ausbeute erträglich machen, sondern auch bei einer Minimierung des GPU Anteils liegen.

Mit den MCMs für Threadripper und EPYC meint AMD die Latenz in den Griff zu bekommen, aber man sieht, dass Software immer noch klemmt, die für die Latenzen zwischen Dies nicht angepasst wurde. Eine eng integrierte GPU kann dann schon Vorteile bringen.

Was ich letztlich im Nachhinein nicht verstehe ist, warum man bei der APU mehrere Varianten von iGPU Grössen entwickeln musste. Sowohl bei Intels iGPU als auch bei AMD.

Von AMDs Seite hätte ich mir eine generelle Integration von einer max. zwei GCN CUs in allen CPUs als APUs gewünscht, die jeweils die Architekturverbesserungen und ISA über die jährlichen Generationen mitnimmt. Das hätte wahrscheinlich stets für simplen Desktop und Server der jeweiligen Generation genügt. Alles was mehr benötigt hat man letzlich doch immer über dGPU gemacht.

Aber im Umkehrschluss hätte man mit eng integrierten 1-2 CUs eine universell verfügbare ISA gehabt, die Compute mit GCN erlaubt hätte, ohne Latenzverluste.
Denn eigentlich geht es um die ISA im Compute und die darauf aufbauende Software. Wäre die Software dann erst mal mit GCN ISA kompiliert wäre auch der Schritt zur Ausführung auf einer dGPU nicht mehr weit, vllt. sogar ganz ohne Softwareanpassung nur auf Treiber bzw. OS-Ebene.

Ganz schick wäre ein Compilerpfad oder micro Code Scheduler gewesen, der z.B. AVX statt auf der FPU alternativ auf den APU-GPU CUs ausführen würde. Das wäre mal was gewesen, SIMD statt mit 512 mit 64k ;D

greeny
2018-01-19, 00:55:59
Paragon: ?Muss der MOBA-Shooter unter Fortnite leiden? [GameZone]
...
Shenmue 3: ?Neue Screenshots zeigen verbesserte Grafik [GameZone]
?? :confused:

Dino-Fossil
2018-01-19, 09:52:22
Von AMDs Seite hätte ich mir eine generelle Integration von einer max. zwei GCN CUs in allen CPUs als APUs gewünscht, die jeweils die Architekturverbesserungen und ISA über die jährlichen Generationen mitnimmt. Das hätte wahrscheinlich stets für simplen Desktop und Server der jeweiligen Generation genügt. Alles was mehr benötigt hat man letzlich doch immer über dGPU gemacht.

Genau! Darüber wundere ich mich seit Jahren. Vermutlich ging es primär darum, zu zeigen, dass man die stärkste iGPU hat, da man (AMD) während der BUlldozer-Zeit mit dem CPU Kern der APUs nunmal nicht viel reißen konnte.
Aber für fast alle Desktop-PCs wäre mMn eine APU mit minimal-iGPU viel sinnvoller gewesen als alles, was sie so geliefert haben.

Mobile sieht es potentiell etwas anders aus, da kann man über eine größere iGPU nachdenken - und auf Basis des mobile-Dies dann evtl. auch ein, zwei Desktop-Modelle mit großer GPU anbieten.

nikk
2018-01-19, 13:34:23
Schade, dass Intel keine PowerVR GPU verbaut und damit Echtzeit-Raytracing und Hybrid-Rendering (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=581440) ermöglicht. Damit wäre die gleiche (oder höhere) RT-Performance in einem Laptop möglich wie bei 4xTitan-Rendering-Workstations mit >1KW Verbrauch, die damit obsolet wären. Die IP dafür könnte Intel aus der Portokasse bezahlen.

Loeschzwerg
2018-01-19, 16:34:15
Muss wohl an der schlechten Erfahrung mit IMG Tec liegen (siehe GMA500, GMA600).

Gast
2018-01-19, 16:37:54
Schade, dass Intel keine PowerVR GPU verbaut und damit Echtzeit-Raytracing und Hybrid-Rendering (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=581440) ermöglicht. Damit wäre die gleiche (oder höhere) RT-Performance in einem Laptop möglich wie bei 4xTitan-Rendering-Workstations mit >1KW Verbrauch, die damit obsolet wären. Die IP dafür könnte Intel aus der Portokasse bezahlen.
Das hat mich auch schon gewundert, warum Intel nicht einfach Imagination auf die wertvollen Entwicklungen fleddert und absorbiert. Früher gabs ja schon Intels mit ImgTec Grafik (Centrino) bei denen aber die Treiber vergurkt waren. Dennoch, Intel hat schon oft Firmen für viel Geld aufgekauft wo viel Geld verbrannt wurde, mit ImgTec hätte man so einige Probleme lösen können wenn man hätte wollen.

Das Raytracing für Mobiles von ImgTec und Hybrid Rendering ist jetzt schon wieder 2 Jahre her. Etwa 1 Jahr danach wurde denen von Apple der Stuhl vor die Tür gestellt. Irgendwie will mit denen niemand mehr im gleichen Sandkasten spielen... Effizient sind die Designs aber schon immer gewesen...

Complicated
2018-01-19, 19:44:52
Der Grund wird sein, dass Intel das Rendering überhaupt nicht interessiert. Der Fokus ist Compute und sie brauchen dringend Server-/HPC-taugliches um Nvidia Paroli zu bieten. Imagination ist hier eher nicht weit vorne. Zumindest auch nicht weiter als das was sie selber schon haben. Intel kennt ja die IP sehr genau, da sie ja auch genutzt wurde in einigen Atom-CPUs.
Intel GMA 3650 = PowerVR SGX 5 Architektur.