PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 13. April 2018


Leonidas
2018-04-14, 11:58:42
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-13-april-2018

Mr.Smith
2018-04-14, 12:20:13
Donald Trump zu Syrien: "Was für eine Art Nation würde im Zusammenhang stehen wollen mit dem Massenmord an unschuldigen Männern, Frauen und Kindern?"

Will USA ja auch nicht :D. Die Begnadigungen danach gehen einfach gar nicht und die weigernde Presse ...


Und zurück zur News, ja, AMD muss kreativ werden, sonst sehen sie kein Land mehr im HighEnd GPU Bereich.

Darkman.X
2018-04-14, 16:33:53
Was ich mich beim Multichip-Design frage: Sieht die Grafikkarte nach außen dann wie eine SLI/Crossfire-Lösung aus? Deren Support ist doch heutzutage sehr schlecht, wird nur noch in wenigen Spielen unterstützt.

Mr.Smith
2018-04-14, 17:58:55
https://wccftech.com/nvidia-future-gpu-mcm-package/

nVidia forscht auch schon länger daran, von daher ist es wohl irgendwie möglich, oder muss möglich gemacht werden, da es sonst irgendwann den Fortschritt bremst.

Mr.Smith
2018-04-14, 18:00:20
Was ich mich beim Multichip-Design frage: Sieht die Grafikkarte nach außen dann wie eine SLI/Crossfire-Lösung aus? Deren Support ist doch heutzutage sehr schlecht, wird nur noch in wenigen Spielen unterstützt.

les dir doch einfach die im artikel verlinkten forumsbeiträge durch, gibt viele ansätze wie man das lösen kann.

das auch interessant
https://www.pcgamesn.com/nvidia/nvidia-multi-chip-GPU
"Infinity Fabric allows us to join different engines together on a die much easier than before," AMD’s Raja Koduri explains. "As well it enables some really low latency and high-bandwidth interconnects. This is important to tie together our different IPs (and partner IPs) together efficiently and quickly. It forms the basis of all of our future ASIC designs. We haven't mentioned any multi GPU designs on a single ASIC like Epyc, but the capability is possible with Infinity Fabric."

mironicus
2018-04-14, 18:40:03
Das sollte auch die Zukunft sein. Anstatt eine Monster-GPU zu bauen, sollte man kleine Dies mit hoher Energieeffizienz zusammenlegen und mittels Treiber wie eine gewöhnliche GPU ansprechen können.

OBrian
2018-04-14, 22:07:59
Was ich mich beim Multichip-Design frage: Sieht die Grafikkarte nach außen dann wie eine SLI/Crossfire-Lösung aus? Deren Support ist doch heutzutage sehr schlecht, wird nur noch in wenigen Spielen unterstützt.
bestimmt nicht, das haben sie (beide) ja schon ein paarmal gemacht und es letztlich wieder gelassen, weil es softwareseitig saumäßig war. Was auch immer die sich ausdenken, es müßte als eine GPU wirken.

danarcho
2018-04-15, 00:05:42
Das sollte auch die Zukunft sein. Anstatt eine Monster-GPU zu bauen, sollte man kleine Dies mit hoher Energieeffizienz zusammenlegen und mittels Treiber wie eine gewöhnliche GPU ansprechen können.
Nur dass die Größe eines Die mit der Energieeffizienz nichts zu tun hat.
Es geht bei der ganzen Aktion, sofern sie denn schon bei Navi stattfinden soll (was ich nicht glaube), nicht um die Energieeffizienz sondern rein um die Kosten.

Und natürlich ab 700m² aufwärts auch um die generelle Machbarkeit.

OBrian
2018-04-15, 02:47:08
Nur dass die Größe eines Die mit der Energieeffizienz nichts zu tun hat.es ging bei der Überlegung darum, den durch I/O außerhalb des Dies unweigerlich erhöhten Energieaufwand durch verbesserte Energieeffizienz der Chips an sich aufzufangen, so dass man letztlich im gleichen Bereich wie jetzt landet (niemand kauft eine 200-€-Midrange-Karte, die 500 W verbrät, aber auf 50 W muss man die auch nicht drücken, das wäre unnötig). Bei geringeren Kosten pro verbauten Quadratmillimeter Chipfläche kann man sich mehr Einheiten leisten, die man bei entspannten Taktraten im Effizienzmaximum betreiben kann.

Mr.Smith
2018-04-15, 14:46:54
Nur dass die Größe eines Die mit der Energieeffizienz nichts zu tun hat...

Wenn man ein DIE ins extreme zieht :D
Umso länger Leitungen umso höher der Leitungsverlust, als ein Beispiel (wenn man nicht grad supraleiter einsetzt, die aktuell auch energie brauchen)

Und ist doch auch egal, solang man billiger, mit weniger Ausschuß, skalierbarer produzieren kann, ist doch alles OK.

Gast
2018-04-15, 16:01:57
Klar hat die Größe damit zu tun .. umso länger die Leitungen umso höher der Verbrauch, als eins von vielen Beispielen.

Leitungen zwischen mehreren DIEs sind allerdings noch wesentlich länger und damit auch wesentlich ineffizienter.

Das ist auch das wesentliche Problem an so einer Multi-DIE-Strategie.
Es dürfte nicht wirklich ein Problem darstellen den Infitity Fabric so aufzubohren, dass dieser auch für die Kommunikation zwischen verschiedenen GPUs genügend Bandbreite zur Verfügung stellt. Die Frage ist vielmehr ob man das auch energieeffizient lösen kann.

Es sollte jetzt durchaus möglich sein sowohl bei AMD als auch bei NVIDIA die GPCs bzw. Shader Engines in einzelne DIEs zu verbauen, ohne zu große Nachteile in der Skalierung.

In erster Linie müsste man wohl die Caches entsprechend vergrößern, so dass jedem einzelnen DIE im Verhältnis zumindest 80% eines hypothetischen großen einzelnen DIEs zur Verfügung steht um die Kommunikation zwischen den DIEs zu minimieren. Cachekoheränz zwischen den DIEs dürfte jetzt nicht wahnsinnig viel Kommunikation verursachen, da GPUs zumindest bei typischen Renderaufgaben ja hauptsächlich lesend auf den Arbeitsspeicher zugreifen.

Die Idee für jeden DIE den lokalen Speicher quasi als HBCC-Speicher zu verwenden ist sicher auch nicht schlecht, zwar opfert man damit etwas an real verfügbarem Speicher (wenn 2 DIEs die selbe Textur zum Rendern benötigen muss diese dann auch im jeweils lokalen Speicher vorhanden sein, man hat also mit 4x4GiB effektiv etwas weniger als 16GiB zur Verfügung, allerdings immer noch mehr als wenn jeder Speicherbereich komplett für eine GPU zuständig wäre), minimiert dafür aber die notwendige Kommunikation über DIE-Fremde Speichercontroller.

Möglich ist sicher vieles, die Frage ist einerseits was ist kosteneffizienter, andererseits was ist energieeffzienter.

Bei zweiterem ist die Single-DIE-Lösung sicherlich immer effizienter, die Frage ist ob man den Nachteil soweit drücken kann, dass es aus Kostensicht trotzdem sinnvoll ist auf Multi-DIE zu setzen.

MrSpadge
2018-04-16, 16:06:38
Es sollte jetzt durchaus möglich sein sowohl bei AMD als auch bei NVIDIA die GPCs bzw. Shader Engines in einzelne DIEs zu verbauen, ohne zu große Nachteile in der Skalierung.
Genau - die Analogie zu CPus, die Leo im Artikel gebracht hat, vergisst, dass GPUs schon aus relativ unabhängigen größeren Blöcken zusammengesetzt sind. Diese sind es, die auf verschiedene Chips verteilt werden würden.

MrS