Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 14./15. Oktober 2017


Leonidas
2017-10-16, 09:14:01
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-1415-oktober-2017

cat
2017-10-16, 10:40:09
ich bin da komplett fachfremd aber in einem MCM als GPU würden wohl die Punkt-zu-Punkt-Verbindungen und fast das komplette Engine-Balancing fatal von zu wenig Bandbreite und/oder selbst zu hohen Latenzen für eine GPU, (die sowas ja bedingt verstecken kann) betroffen sein.
Falls diese Baustellen beseitigt wären könnte dort Zukunft sein.

In AMDs Fall wäre wohl eine Variante ála InfinityFabric im Extrem-Breitbau angesagt,
nur als Richtung würde ich den EPYC-Interposer als konservativ-zurückhaltendes Design bezeichnen im Vergleich zu einem MCM-GPU-Interposer, (CPUs sind ja eher seriell gedacht, GPUs eher parallel).
das hier ist EPYC: ... und jetzt lasst man eure Fantasie spielen ...
https://i.redd.it/roibz5y7zc9z.png

Dino-Fossil
2017-10-16, 10:57:33
Wie sich diese verfahrene Situation auflösen läßt, ist etwas unklar, denn bei den derzeit diesbezüglich genannten Spieletiteln "Mittelerde: Schatten des Krieges" sowie "Star Wars Battlefront 2" handelt es sich um große Franchise-Titel, die man als Spieler nicht mal so einfach links liegen läßt.

Doch, genau das ist, was man tun sollte. Mal ehrlich, man muss wirklich nicht unmittelbar jedem neuen AAA-Titel hinterherhecheln, auch nicht als selbstdeklarierter "Hardcore-Gamer".
Titel die solche Dinge abziehen müssen ignoriert werden, zumindest mal bis sie so günstig verkauft werden, dass man es verschmerzen kann.
Und das ist heutzutage ja oft schon nach ein paar Monaten in irgendeiner Rabatt-/Verkaufsaktion der Fall, soviel Geduld muss man dann eben mitbringen.
Abstimmen mit dem Geldbeutel, viel mehr kann man bei den großen Publishern nicht tun.

Platos
2017-10-16, 13:53:58
ich bin da komplett fachfremd aber in einem MCM als GPU würden wohl die Punkt-zu-Punkt-Verbindungen und fast das komplette Engine-Balancing fatal von zu wenig Bandbreite und/oder selbst zu hohen Latenzen für eine GPU, (die sowas ja bedingt verstecken kann) betroffen sein.
Falls diese Baustellen beseitigt wären könnte dort Zukunft sein.

In AMDs Fall wäre wohl eine Variante ála InfinityFabric im Extrem-Breitbau angesagt,
nur als Richtung würde ich den EPYC-Interposer als konservativ-zurückhaltendes Design bezeichnen im Vergleich zu einem MCM-GPU-Interposer, (CPUs sind ja eher seriell gedacht, GPUs eher parallel).
das hier ist EPYC: ... und jetzt lasst man eure Fantasie spielen ...
https://i.redd.it/roibz5y7zc9z.png

Warum ist denn das nicht machbar? Bei wenigstens 2 DIEs sollte das doch gehen. Die kann man praktisch direkt neben einander platzieren und die Verbindung könnte man doch unter den DIEs durchziehen, oder nicht ?

2 DIEs sollten ja schonmal einen erheblichen Perfomancegewinn bringen.

Aber was ist denn der Unterschied von MCM zu 2 GPUs auf der selben Karte ? Und wie funktioniert da die Kommunikation ? Müssten da nicht genau so grosse Datenmengen ausgetauscht werden ?

cat
2017-10-16, 19:04:43
bei aktuellen Dual-Chip-Lösungen werden "mehr oder weniger" nur die Frame-Buffer und die Bildausgabe synchronisiert, und der Treiber versucht die Last zu ballancieren oder lässt beide Chips Vollgas nebeneinander Konkurieren.
Ein MCM wäre quasi eine Zersplitterung und Vermehrung der Bauelemente Einer einzelnen GPU auf 2 oder mehr Dies.

ich geb mal Bilder dazu, eine einzelne "Pipeline" soll z.B. etwas wie eine HD7700-Baureihe sein.
http://www.3dcenter.org/dateien/abbildungen/AMD-Radeon-HD-7700-Series-Architecture.jpg

das hier ist Hawaii 290X, sozusagen Quad-Pipeline
https://images.anandtech.com/doci/7457/HawaiiDiagram.jpg https://image.slidesharecdn.com/gs-4152michaelmantor-131121143916-phpapp02/95/gs4152-amds-radeon-r9290x-one-big-dgpu-by-michael-mantor-4-638.jpg?cb=1385046275

hier die Bandbreiten GCN-intern
http://img.techpowerup.org/171016/290x-bandbreiten.png

hier vereinfacht 2 Pipelines
https://graphics.stanford.edu/papers/pomegranate/talk/slide014.png

Logic
https://graphics.stanford.edu/papers/pomegranate/talk/slide016.png

Single-Pipeline Bandbreiten-Übersicht Theorie aus dem Jahr 2000
https://graphics.stanford.edu/papers/pomegranate/talk/slide019.png

heutige Chips schaffen pro Pipeline real nicht nur 20Mio Triangles, sondern über 1 Miliarde, also dürfte man die oberen Werte gerne X50 nehmen.
http://www.hardware.fr/getgraphimg.php?id=333&n=1

Bei Fermi hat Nvidia eine "Crossbar" (glaub ich) eingeführt die unzählige Punkt-zu-Punkt-Verbindungen hatte, nach den ersten Designs musste Fermi deswegen neu designt werden, ein solchart komplexes Bauteil mit dieser Latenz und Übertragungsrate war bis dato an die Grenzen des machbaren gestoßen und hatte physikalische Probleme.

Vega wird wohl deutlich über dem 1TB/s L2-Bandbreite der 290X liegen und die Anforderungen der Kontrolllogik sind mir nicht bekannt, werden aber beachtlich sein.

Eldoran
2017-10-16, 19:29:29
Warum ist denn das nicht machbar? Bei wenigstens 2 DIEs sollte das doch gehen. Die kann man praktisch direkt neben einander platzieren und die Verbindung könnte man doch unter den DIEs durchziehen, oder nicht ?

2 DIEs sollten ja schonmal einen erheblichen Perfomancegewinn bringen.

Aber was ist denn der Unterschied von MCM zu 2 GPUs auf der selben Karte ? Und wie funktioniert da die Kommunikation ? Müssten da nicht genau so grosse Datenmengen ausgetauscht werden ?

Naja EPYC ist nicht direkt vergleichbar - das ist eine CPU, da sind die Anforderungen anders als bei GPUs. Wie Leonidas schon erwähnt hat, sind die Bandbreitenanforderungen deutlich höher. Allerdings sollte genau das Problem mit einem Interposer wegfallen, da können durchaus ausreichend kontakte/Verbindungen zwischen zwei GPU Dies erzeugt werden. Und Latenz beim SI ist bei GPUs eigentlich nicht so das Problem, sofern die Bandbreite selbst ausreicht. Das Thread/Warp-management eher schwiering sein. WAs IMHO noch völlig offen ist, wie hoch die etwaigen Performancekosten sind (und wie teuer bezüglich die area und Stromverbrauch ein derartiges MCM wäre). Vor allem kommt man damit wohl per Definition in den Bereich, wo man für das Interposer mehrere Belichtungen braucht.

Unterschied MCM für eine logische GPU zu 2 GPUs (etwa crossfire) - bei der aktuellen Implementation ist es eher so, dass es nur eine relativ begrenzte Kommunikationsmöglichkeit gibt, also der Austausch in jeder Hinsicht relativ aufwendig ist. Damit macht es nur wirklich Sinn, wenn die beiden GPUs weitestgehend unabhängig von einander arbeiten, etwa indem verschiedene frames bearbeitet werden (sonst frisst der Overhead den ganzen Gewinn wieder auf). Die GMI Links beim EPYC wären da im vergleich vermutlich schon eine deutliche Verbesserung zu den aktuell genutzten PCIe Lanes. Ob sich so etwas auszahlt ist aber offen. Es wäre um den Vergleich zu Epyc zu ziehen annähernd die selbe Bandbreite wie beim SI notwendig. Das PCIe Interface ist derzeit deutlich kleiner.

yummy_candy
2017-10-17, 04:49:26
ich bin da komplett fachfremd aber in einem MCM als GPU würden wohl die Punkt-zu-Punkt-Verbindungen und fast das komplette Engine-Balancing fatal von zu wenig Bandbreite und/oder selbst zu hohen Latenzen für eine GPU, (die sowas ja bedingt verstecken kann) betroffen sein.

Also im Hinblick auf IF, Vega besitzt ein Mesh-Verbund. Wie sich das auf die Bandbreite auswirkt, kann ich nicht sagen.

https://www.hardwareluxx.de/index.php/news/hardware/prozessoren/41272-fuer-vega-und-ryzen-infinity-fabric-als-grundgeruest-der-neuen-architekturen.html
https://en.wikichip.org/w/images/a/a1/vega-whitepaper.pdf

Nazar
2017-10-17, 07:45:32
Ich habe mir nun viele Screens von Mittelerde: Schatten des Krieges angesehen und konnte nicht einen finden, der den Begriff "Bildqualität auch nur im entferntesten gerecht werden würden.
Bin ich der einzige mit gesunden Augen?
Dass das Spiel so genügsam ist, was die Hardwareanfoderungen bezüglich der "Bildqualität" betrifft, ist nun kein Wunder, wenn die Bildqualität selbst auf Ultra aussieht als hätte man die Grafik zu heiß gewaschen.
Mit welchem Spielekracher will man Mittelerde: Schatten des Krieges den vergleichen, was die BQ angeht? Bei dem Spiel das Wort Bildqualität positiv zu besetzen lässt den Gedanken aufkommen, dass die Bewerter "positiv beeinflusst" wurden.
Wie würde man denn im Vergleich die BQ von W3 bewerten müssen? Super Ultra Hyper Mega Galaxy BQ?
Gibt es Screens, die in irgendeiner Weise belegen können, dass Mittelerde: Schatten des Krieges überhaupt eine BQ besitzt?

Raff
2017-10-17, 11:34:36
Das Temporal-AA nimmt der Grafik viel "Knackigkeit", entflimmert aber effektiv. Das kann man ausmachen und stattdessen mit Downsampling drüberrutschen, dann passt der Lack. :D Alternativ etwas AdaptiveSharpen mittels Reshade und gut.

MfG,
Raff

MrSpadge
2017-10-17, 14:09:54
@MCM für GPUs: die Bandbreite zwischen den Chips bekommt man hin. Braucht halt nur mehr parallele Verbindungen. Kostet allerdings mehr Energie und Chipfläche, je weiter die Daten wandern müssen. Das ist schon eher problematisch, da derart dicke Designs automatisch vom Stromverbrauch limitiert werden.

Zum Vergleich mit Epyc: der besitzt keinen Interposer, sondern ein normales "multi chip package". Mit Si-Interposern bekommt man (wie schon jemand sagte) viel kleinere Kontakte und damit mehr Datenleitungen hin. Extrem wichtig wäre hier ein Ansatz wie Intels EMIB (https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&uact=8&ved=0ahUKEwjkzZLpzffWAhUHCZoKHfF-DvUQFggqMAA&url=https%3A%2F%2Fwww.intel.com%2Fcontent%2Fwww%2Fus%2Fen%2Ffoundry%2Femib.html&usg=AOvVaw3wumtYWckqCHGk2WBUyRCZ), da dieser im Vergleich zu Riesen-Interposern ala Vega fast nichts kostet.

Und welche Bandbreite wäre für eine GPU nötig? Sicher würde man nicht auf Basis des L1-Caches teilen. Der größte momentan existierende Baustein sind die GPCs (NV) bzw. Shader Engines (AMD, oben von cat pipelines genannt). Zwischen diesen wird wesentlich weniger Kommunikation nötig sein, als man denkt. So weit ich weiß, wird eigentlich nur die Arbeit auf diese Blöcke verteilt und die Ergebnisse werden unabhängig von einander zurückgeschrieben. Hier wäre eine Aufteilung auf mehrere Chips erstmal kein Problem.

Problematischer wird's, wenn jeder Chip seinen eigenen RAM hat und ab und an auf den entfernten RAM zurückgreifen muss. Dann landen wir direkt bei NUMA. Die bandbreite zwischen den Chips sollte dann die gleiche wie zum lokalen RAM sein, um keine Geschwindigkeit zu verlieren. In jedem Fall bekommt man aber höhere Latenzen, welche wiederum durch größere Puffer (instructions in flight) aufgefangen werden müssten (kostet wieder Energie und Chipfläche) oder Geschwindigkeit kosten.

Alternativ könnte ein weiterer Chip nur für den RAM-Zugriff verbaut werden. Dann wird aber jeder Zugriff langsamer und energetisch teurer und die Bandbreite skaliert nicht mehr mit der Anzahl der GPUs. Das wäre quasi ein Rückschritt in Richtung "Speicherkontroller in der Northbridge auf dem Board" - das wird man nicht machen.

MrS

Flusher
2017-10-17, 16:36:35
@Lootboxen

Wieso soll denn explizit das PC-Gaming darunter leiden. Das Konzept der Lootboxen ist doch vor allem auch auf den Konsolen omnipräsent. Und solange Schüler/Jugendliche mit der Kredikarte der Eltern das zeug zuhauf kaufen, solange wird es diese Pay-to-Win Systeme geben.

Ich persönlich kaufe prinzipiell keine InGame Währung oder Loot-Boxen o.ä. und auch bei Spielen die vermehrt inhalte per DLC nachschieben warte ich auf das Humble Bundle oder eine GOTY Edition, die dann den kompletten Inhalt für ein Appel und ein Ei enthalten.

Civtam
2017-10-17, 20:54:30
Ich persönlich kaufe prinzipiell keine InGame Währung oder Loot-Boxen o.ä. und auch bei Spielen die vermehrt inhalte per DLC nachschieben warte ich auf das Humble Bundle oder eine GOTY Edition, die dann den kompletten Inhalt für ein Appel und ein Ei enthalten.
Ich bin ein großer Fan von Paradoxtiteln und habe speziell Crusader Kings II recht viel + intensiv gespielt. Hier habe ich auch viele DLCs direkt bei Release zum vollen Preis gekauft (wie auch bei Stellaris), ich unterstütze hier die Weiterentwicklung eines meiner Lieblingsspiele. Bei EU IV hingegen, kaufe ich mir die DLCs eher in irgendeiner Verkaufsaktion nach. Trotzdem habe ich auch hier schon das eine oder andere DLC-Paket zum vollen Preis gekauft.
Ich finde Paradox bietet mit seinem Forum, den Devdiaries und den YouTubevideos einen echten Anreiz, sie aktiv zu unterstützen. Sie reden offen und ehrlich über ihre Produkte und verbessern ihre Spiele kontinuierlich. Da sehe ich die DLCs als "Season Pass" oder als kleines Opt-In-Abo und mich stört der Preis eher weniger.

Civ IV hingegen habe ich mir in der Digital Deluxe Edition zu Release gekauft und war von den Erweiterungen sehr enttäuscht. Hier hatte ich weder das Gefühl eine sinnvolle Weiterentwicklung zu unterstützen, noch fühlte ich mich in irgend etwas eingebunden (lag aber auch daran, dass ich als Civ IV Verehrer, der bis BNW schon Schwierigkeiten mit Civ V hatte auch wohl ein schwieriger Fan bin und Civ VI insgesamt eher enttäuschend fand ;)). Sollte es ein Civ VII geben, werde ich dies wohl auch erst in irgendeinem Sale oder nach erscheinen der beiden Major-Expansion-Packs holen.

Ferenzo
2017-10-18, 16:59:21
Hab ich was verpasst? Jetzt geht es schon mit 8 Gbyte Memory auf der Graka nah an die Grenze :(
Hatten nicht einige Leute was von in nächster Zeit "zukunftssicher" schwadroniert ^^

Scheint aber gut ins Bild zu passen, 2018 kannst du zwar nen Mittelklasse Rechner haben,aber am besten 32 Gbyte RAM und 12 GByte Mem auf der Bilderrutsche :freak:

Flusher
2017-10-22, 00:41:11
Ich bin ein großer Fan von Paradoxtiteln und habe speziell Crusader Kings II recht viel + intensiv gespielt. Hier habe ich auch viele DLCs direkt bei Release zum vollen Preis gekauft (wie auch bei Stellaris), ich unterstütze hier die Weiterentwicklung eines meiner Lieblingsspiele. Bei EU IV hingegen, kaufe ich mir die DLCs eher in irgendeiner Verkaufsaktion nach. Trotzdem habe ich auch hier schon das eine oder andere DLC-Paket zum vollen Preis gekauft.
Ich finde Paradox bietet mit seinem Forum, den Devdiaries und den YouTubevideos einen echten Anreiz, sie aktiv zu unterstützen. Sie reden offen und ehrlich über ihre Produkte und verbessern ihre Spiele kontinuierlich. Da sehe ich die DLCs als "Season Pass" oder als kleines Opt-In-Abo und mich stört der Preis eher weniger.

Civ IV hingegen habe ich mir in der Digital Deluxe Edition zu Release gekauft und war von den Erweiterungen sehr enttäuscht. Hier hatte ich weder das Gefühl eine sinnvolle Weiterentwicklung zu unterstützen, noch fühlte ich mich in irgend etwas eingebunden (lag aber auch daran, dass ich als Civ IV Verehrer, der bis BNW schon Schwierigkeiten mit Civ V hatte auch wohl ein schwieriger Fan bin und Civ VI insgesamt eher enttäuschend fand ;)). Sollte es ein Civ VII geben, werde ich dies wohl auch erst in irgendeinem Sale oder nach erscheinen der beiden Major-Expansion-Packs holen.


DLCs sind und bleiben ein Mittel um Kunden von Vollpreistiteln weiter zu schröpfen. Ich sehe es nicht ein, 40-60 € für ein Spiel auszugeben, nur um 4 Wochen später nochmal zur Kasse gebeten zu werden weil der Publisher bewusst Inhalte zurückgehalten hat. Besonders bei Rennspielen finde ich es eigentlich eine Frechheit, dass man oftmals für weitere Fahrzeuge (die zum Releasezeitpunkt bereits existiert haben) nochmal bezahlen soll.