PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 30./31. Januar 2021


Leonidas
2021-01-31, 16:36:51
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-3031-januar-2021

Aroas
2021-01-31, 16:49:59
Hach, wenn die Grakas denn auch zum Listenpreis zu bekommen wären... Dann wäre solch eine RX 6600XT schon sehr interessant.
Aber so wie die Dinge liegen, wird eine solche Karte wohl keine 199€, sondern eher 399€ kosten.

Cyberfries
2021-01-31, 17:10:54
Kurzer Hinweis:
komachi ist nicht der erste der auf N33 hingewiesen hat.
kopite7kimi (https://twitter.com/kopite7kimi/status/1353605331180417024) spricht davon, dass N33 der spannendere Chip sei.
Das allein ist noch kein klarer Hinweis auf dessen Existenz, doch mit dem komachi-Tweet in Kombination...
da scheint es einen gewissen Kreis an Leuten zu geben, die vor kurzem an Informationen gelangt sind.
Olifyne ergänzt in den Kommentaren dazu, dass N33 die sku sei, die am stärksten dazugewinnne.
Wobei ich den Typen nicht kenne, ist noch nicht irgendwo aufgefallen.

Leonidas
2021-02-01, 05:21:32
Sehr vielen Dank für die Anmerkung!

Gast
2021-02-01, 08:10:48
"nVidia könnte damit versuchen, den Performance-Abstand zur GeForce RTX 3090 besser hinzubekommen, oder vielleicht lohnt sich auch die Freischaltung von mehr Shader-Clustern angesichts des gewählten TDP-Limits schlicht nicht"
Das TDP Limit kann es nicht sein, denn die 3080 wird auf 270W konfiguriert nur unwesentlich langsamer. Die läuft also @stock klar über ihrem sweet spot. Insofern würden mehr Shader die 3080TI nur effizienter machen, es kann also nur um den nötigen Abstand zur 3090 gehen.

Calypso
2021-02-01, 10:31:34
was heißt das denn, dass da kein USB Support mehr vorhanden ist?

Tigerfox
2021-02-01, 12:58:49
Ich gestehe, dass ich die Idee eines Chiplet-Designs bei Grafikkarten nicht ganz verstehe.

So, wie ich das Chiplet-Design von CPUs kenne, also z.B. bei Zen mehrere CCX mit Cores sowie L3-Cache, verbunden zu CCD (bei Zen3 nun identisch) und über das IF miteinander und mit dem IOD verbunden.

NAch meinem Verständnis wird das doch bei GPUs schon so ähnlich umgesetzt, die "Cores" sind hier die ALUs, die CCX die SM/CU, die CCD die GPC usw.

Was soll nun bei RDNA3 da modularer werden? Wie man beim Wechsel von Zen2 zu Zen3 gesehen hat (und schon beim Ryzen 3 3300X vs 3100), ist ein Verbund aus zwei kleinen CCX in einem CCD auch weit ineffizienter als ein großes CCD. Analog würde ich es für ineffizienter halten, wenn man die GPU aus mehreren Chiplets mit 20-40CUs zusammensetzt, als gleich einen DIE mit 80CUs zu machen.

@RTX 3080Ti: nVidia könnte damit versuchen, den Performance-Abstand zur GeForce RTX 3090 besser hinzubekommen, oder vielleicht lohnt sich auch die Freischaltung von mehr Shader-Clustern angesichts des gewählten TDP-Limits schlicht nicht.
Das zweite ist schlicht Unsinn, mehr Shader lohnen sich bei gleicher TDP immer, mit mehr Takt erreicht man bei gleicher TDP wesentlich weniger Leistung. Da braucht man sich nur die Vergleiche von 3090 und 3080 bei gleichem PT anzusehen.
Die 3090 zeigt zwar auch, dass mehr ALUs nicht ganz ohne Mehrverbrauch daherkommen, wie es manchmal den Anschein hat (2060S und 2070S verbrauchten z.B. genausoviel wie 2070 und 2080, mit weniger Leistung und weniger ALUs, aber ähnlichem Takt), aber bei gleichem Chip spart das Abschalten von ALUs kaum etwas, bei gleichem Takt sind Abwärme und Energiehunger in etwa gleich.

Gast
2021-02-01, 14:55:38
@RTX 3080Ti:
Das zweite ist schlicht Unsinn, mehr Shader lohnen sich bei gleicher TDP immer, mit mehr Takt erreicht man bei gleicher TDP wesentlich weniger Leistung.

So ist es, das zeigt auch deutlich der Vergleich zwischen 3080 und 3090 bei dem letztere im absoluten Grafiklimit trotz höherer TDP eine etwas bessere Effizienz zeigt.

Mehr Shader bei geringerer TDP würden die Effizienz weiter verbessern.

Gast
2021-02-01, 15:26:30
Analog würde ich es für ineffizienter halten, wenn man die GPU aus mehreren Chiplets mit 20-40CUs zusammensetzt, als gleich einen DIE mit 80CUs zu machen.
Das Ziel von Chiplets ist ja in erster Linie nicht, die Effizienz zu steigern, sondern die Fertigungskosten zu senken. Klar, man kann vielleicht durch die kleineren Gruppen den Takt etwas optimieren, aber ein Monster chip a la GA102 oder auch Navi21 ist einfach in der Herstellung ungemein teuer und man hat entsprechend Ausschuss (defekte Shader, SIs oder auch nur nicht ausreichend Taktbarkeit). Genau das versucht ein Chiplet zu umgehen, indem man mehrere kleine Chips (mit entsprechend niedrigerer statistischer Fehleranfälligkeit) im Verbund verwendet. Der Knackpunkt ist, dass man damit nicht zu viel Leistung verlieren sollte, sonst rentiert sich das auch wieder nicht. AMD hat hier vielleicht mit InfinityCache eine gute Lösung gefunden (muss sich erst noch zeigen). Ein weiterer Vorteil bei den Kosten ist, dass man vielleicht nicht alles neu designen muss. Wenn man z.B. die Video Einheit in einen extra Chip auslagern kann (vielleicht zusammen mit den Speichercontrollern und/oder dem PCIe Interface), dann kann man den Chip bei der nächsten Generation wieder verwenden, was Entwicklungskosten spart.
Zusätzlich kann man damit vielleicht auch die Leistung besser skalieren, indem man einfach noch mehr Rechenkerne auf eine Karte packt, als das bei einem Monolithen kostenmäßig sinnvoll wäre.

Das zweite ist schlicht Unsinn, mehr Shader lohnen sich bei gleicher TDP immer, mit mehr Takt erreicht man bei gleicher TDP wesentlich weniger Leistung.
Sehe ich genauso, NVidia will hier schlicht einen ausreichenden Abstand der 3090 schaffen.

Buddy Casino
2021-02-01, 16:20:50
Was soll nun bei RDNA3 da modularer werden? Wie man beim Wechsel von Zen2 zu Zen3 gesehen hat (und schon beim Ryzen 3 3300X vs 3100), ist ein Verbund aus zwei kleinen CCX in einem CCD auch weit ineffizienter als ein großes CCD. Analog würde ich es für ineffizienter halten, wenn man die GPU aus mehreren Chiplets mit 20-40CUs zusammensetzt, als gleich einen DIE mit 80CUs zu machen.


Falls ich das richtig verstehe: ja, ineffizienter wird es zwar, aber der Gewinn liegt in der Fertigung - je größer der Chip, desto wahrscheinlicher sind Defekte, desto weniger Ausbeute und desto teurer wird es. Kleinere Strukturen werden exponentiell teurer, irgendwann wird es sich lohnen "scale out" anstatt "scale up" zu machen.

Die Strukturen bei GPUs sind aufgrund der Parallelität ja sehr repetitiv, bei GPUs sollte es demnach einfacher sein defekte Teile zu deaktivieren als bei CPUs, aber irgendwann reicht vermutlich auch das nicht mehr weil es zu viele Ecken gibt wo etwas kaputt gehen kann. Es kommen ja immer neue Funktionseinheiten dazu: video codecs, RT, Tensor cores, ...

Tigerfox
2021-02-01, 16:27:32
Trotzdem ist es doch dann effizienter, wenn man nur vom größtmöglichen DIE mehrere als Chiplet zusammenfügt, für alle kleineren GPUs aber die Ausführungseinheiten im DIE reduziert. Siehe Ryzen 3000 und 4000, ein volles CCX ist effektiver als zwei teildeaktivierte, weshalb es viel IPC gebracht hat, die Größe des CCX zu verdoppeln.

Benutzername
2021-02-01, 18:15:40
was heißt das denn, dass da kein USB Support mehr vorhanden ist?


Über USB werden die meisten VR-Brillen angeschlossen. Auch manche Schlepptops haben USB als Grafikausgang. (Wobei das für Navi31 und 33 wohl nicht so wichtig sein dürfte bei der vermutlichen TDP.) Muss dann ein Karten-/Laptophersteller eben einen Zusatzchip dazulöten, falls er das anbieten will.

Gast
2021-02-01, 18:45:14
Trotzdem ist es doch dann effizienter, wenn man nur vom größtmöglichen DIE mehrere als Chiplet zusammenfügt, für alle kleineren GPUs aber die Ausführungseinheiten im DIE reduziert. Siehe Ryzen 3000 und 4000, ein volles CCX ist effektiver als zwei teildeaktivierte, weshalb es viel IPC gebracht hat, die Größe des CCX zu verdoppeln.
Naja, um z.B. von einer fiktiven RX 7700XT auf eine RX 7700 "abzurüsten" schon, aber für eine RX 7600XT reicht dann vielleicht ein Chiplet (oder so) weniger. Das spart natürlich Kosten, wenn man ein Chiplet sparen kann. Das ist ja dann der Sinn der Chiplets. Für die RX 7400 nutzt man vielleicht ein Chiplet, für die RX 7500 dann zwei Chiplets, für die 7600 vier Chiplets die 7700 hat dann 8 und die 7800 16. Oder man macht die Chiplets doppelt so groß und spart sich die 7400 (alles natürlich fiktiv zur Veranschaulichung).
Je größer der Chip, desto wahrscheinlicher ist ein Defekt im Chip. Und diese Wahrscheinlichkeit steigt dann ziemlich schnell bei steigender Größe. Große Chips sind daher dann oft einfach Müll und das treibt neben der großen Fläche der Chips zusätzlich die Kosten. Bei einem großen Chip sorgt ein Defekt dafür, dass z.B. ein Zehntel eines Wafers weggeworfen werden muss, bei kleinen Chiplets nur ein Hundertstel.

Tigerfox
2021-02-01, 19:02:22
Das ist mir alles klar, Du verstehst aber meine Argumentation nicht. Bis zu einer gewissen Chipgröße ist die Ausbeute ja heutzutage ziemlich gut und unterscheidet sich nicht groß zu noch kleineren Chips. Ein TU102, mindestens aber ein TU104 lässt sich nach kurzer Zeit mit minimalem Ausschuss produzieren, ein TU106 nicht mit wesentlich weniger.

Daher macht es keinen Sinn, alles über Chiplets zu skalieren, weil diese soviel ineffizienter sind. Man nimmt den größten Chip, den man ohne nennenswerten Ausschuss produzieren kann, skaliert nach unten mit kleineren Chips und nur nach oben noch mit größeren.

Auf RDNA3 übertragen: Navi31 mit 80CUs ist der größte Einzelchip, darunter gibt es kleinere Chips, darüber noch 1-2 Chiplet-Versionen mit 2-3x80CUs.

Gast
2021-02-01, 19:46:43
zur Tabelle im Artikel..März 2020 hatten wir schon.

AlterSack
2021-02-01, 19:53:52
RX6700XT für 399 Dollar?
Klingt utopisch, wo gerade für eine 5700X 650€ aufwärts verlangt werden.
Als sie neu war gabs die ab etwa 480€ zu kaufen. Billiger würde die 6700XT sicher nicht.
Und bei der wahrscheinlich mittelfristig andauernden schlechten Verfügbarkeit von
Elektronikbauteilen im Allgemeinen, wird sich daran erstmal nix ändern.
Man muss uns schliesslich überwachen, da bleibt für Unterhaltung nicht viel übrig.

Gast Ritis
2021-02-01, 20:51:27
Chiplets sind hier dann doch grösstenteils unverstanden.

Wie bei Zen1 könnten vollständige GPU Chips einzeln oder zu mehreren auf ein MCM. Das passt zum zuletzt diskutierten Patent oder was IMGTec macht.
Vorteile sind nur ein Design für low end bis high end, SI skaliert mit Dies, kleinere Chips haben weniger Ausfälle oder Leckströme, Takten im direkten Vergleich höher, können besser selektiert werden für Topprodukte.

Wie ab Zen2 könnte ein IO Chiplet die Fertigung im kleineren Verfahren ohne zu grosse Verzögerung erst möglich machen, braucht Caches in den Compute Chiplets wegen dem Flaschenhals. Ähnliche Vorteile, noch schnellere Produktentwicklung und Flexibilität bei Mix n Match von IO Varianten.

CPU Multicore wird auf OS Ebene und Softwareanwendungen mittlerweile gut unterstützt. Hat über ein Jahzehnt gedauert.

GPU Multicore ist in Vulkan und DX12 prinzipiell gut möglich, gibt aber fast keine Bestandsoftware. Meiste Benchmarks brauchen aus Sicht des OS eine Single GPU, bei schlankem Treiber muss dann auf der GPU eine HW Jobverteilung zwischen den Chiplets und deren Cache Domänen optimieren. In Software auf der Host CPU im Treiber wäre das bei Gaming eher zu langsam bzw nicht zuverlässig immer schnell genug.

MCM mit Chiplets sind auch nur günstiger zu produzieren so lange ein entsprechender Monolithen viel zu schlechten Yield hätte, sonst ist ohne zusammenkleben wieder günstiger.

Leonidas
2021-02-02, 03:56:07
zur Tabelle im Artikel..März 2020 hatten wir schon.


Es ist tatsächlich der März 2020 (nicht 2021) gemeint. So lautet das Gerücht. Ich bezweifle es, aber mehr als Info haben wir derzeit nicht.

Mr.Smith
2021-02-02, 08:00:30
Hach, wenn die Grakas denn auch zum Listenpreis zu bekommen wären... Dann wäre solch eine RX 6600XT schon sehr interessant.
Aber so wie die Dinge liegen, wird eine solche Karte wohl keine 199€, sondern eher 399€ kosten.

für bis 349€ wär es bei mir eher die 6700XT
6600XT hört sich schon deutlich langsamer an.

Mr.Smith
2021-02-02, 08:02:14
und Tape-Out heißt ja auch nur, sie haben erste praktische Versuche mit Chiplets gemacht..
Vor Mitte 2022 muss man damit mind. nicht rechnen, spätestens bis Ende 2023 kann ich mir sehr gut Chiplets im GPU Bereich vorstellen.

Calypso
2021-02-02, 08:12:50
Über USB werden die meisten VR-Brillen angeschlossen. Auch manche Schlepptops haben USB als Grafikausgang. (Wobei das für Navi31 und 33 wohl nicht so wichtig sein dürfte bei der vermutlichen TDP.) Muss dann ein Karten-/Laptophersteller eben einen Zusatzchip dazulöten, falls er das anbieten will.

Danke für die Aufklärung

Gast
2021-02-02, 12:29:21
Über USB werden die meisten VR-Brillen angeschlossen.

Naja nicht wirklich, genau genommen fällt mir keine einzige VR Brille ein die auch wirklich den VR-Link verwendet.

Wobei ich mich ehrlich gesagt frage warum. Es wäre doch sehr praktisch gewesen statt 3 Kabel nur mehr eines zu brauchen und für Grafikkarten die keinen VR-Link haben hätte man ja immer noch eine Box beilegen oder extra verkaufen können, die wie bisher den Anschluss über 3 Kabel ermöglicht.

Oculus Quest verwendet zwar prinzipiell ein USB-C Kabel, aber eben kein VR-Link, sondern eine proprietäre Oculus-Lösung, mit Streaming-Technik.