PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 30. September 2020


Leonidas
2020-10-01, 11:16:29
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-30-september-2020

Lehdro
2020-10-01, 11:51:30
Gegenthese: Rohpower ist eigentlich schon immer gut gealtert, siehe AMDs GCN. So etwas ähnliches erwarte ich auch mit Ampere (zumindest bei den Modellen wo der VRAM passt).

Raff
2020-10-01, 11:52:29
Exakt: https://www.pcgameshardware.de/Nvidia-Ampere-Grafikkarte-276295/News/Ampere-Fehlt-Grafikkarten-Leistung-1358938/

MfG
Raff

Gast
2020-10-01, 12:38:16
Die Idee mit 1024bit HBM2e + 256bit GDDR6 Interface ist interessant, wenn sich das wirklich kombinieren laesst. Halte es aber fuer eher unwarscheinlich das man diesen Spagat macht. Was meiner Meinung nach jedoch fuer ein Hybrid spricht (also getrennt genutztes 2048bit HMB2e und 256bit Interface) ist das man sowohl eine ~ 820GB/s Version mit teurem HBM2e und Interposer auf den Markt bringen kann, als auch eine kleinere Version mit ~ 512GB/s GDDR6 Speicher als normales Package.

Es braucht schliesslich "langsam" auch ein Replacement fuer die Radeon VII. Da sind eigentlich 2048bit HBM2e auch noch etwas duenn ;)

Wenn ich das mit den TCCS richtig verstanden habe, dann ist bei einer Anzahl von deren 16 folgendes recht problemfrei moeglich:

256bit GDDR6
512bit GDDR6
1024bit HBM2e (Controller Flaeche ~ 64bit GDDR6)
2048bit HBM2e (Controller Flaeche ~ 128bit GDDR6)
3072bit HBM2e (Controller Flaeche ~ 192bit GDDR6)
4096bit HBM2e (Controller Flaeche ~ 256bit GDDR6)

Es ist noch alles offen denke ich. :D

Gast
2020-10-01, 12:51:55
Gegenthese: Rohpower ist eigentlich schon immer gut gealtert, siehe AMDs GCN. So etwas ähnliches erwarte ich auch mit Ampere (zumindest bei den Modellen wo der VRAM passt).

Naja GCN hatte viel Rohpower konnte sie aber in Spielen nicht auf die Strasse bringen. Darum gibt es ja den Nachfolger RDNA fuer Gaming und GCN wird fuer HPC weiterverwendet.

Ein anderes Beispiel fuer Rohpower die nicht auf die Strasse kommt kann man Bulldozer ansehen.

Ich finde es aber durchaus interessant wie sich das in Zukunft entwickelt. Ich vermute das der Einfluss von NVidia auf die Entwickler groesser ist als der Einfluss von AMD. Entsprechend kann es gut sein das die Spiele dahingehend mehr optimiert werden und somit das Potential in Zukunft besser genutzt werden kann. Persoehnlich halte ich es jedoch, aus Konsumentensicht, fuer den falschen Weg den Nvidia da eingeschlagen hat und kommt mir vor wie ein Hase der Haken schlaegt um seinen Verfolger abzuhaengen. Wenn im Gegensatz zur "GCN Rohpower" fuer die "Ampere Rohpower" mehr optimiert wird und damit AMD wieder abgehaengt wird, dann wird es in Zukunft fuer den Konsumenten weiter immer teurer und teurer weil Nvidia den Markt und damit die Preise beherrscht. Ein Kopf an Kopf Rennen und den Fokus auf Effizienz waere mir absolut lieber.

Iscaran
2020-10-01, 13:38:44
Fine Wine...das ich nicht lache.

Entweder ist Ampere derart Revolutionär, daß ich die dafür notwendigen Softwareumbauten auch in 10 Jahren nicht im Einsatz sehe und man hat sich damit ähnlich wie AMD mit GCN eben verspekuliert.

Denn GCN war damals auch revolutionär, setzte aber voraus, daß man die Aufgabenverteilung deutlich mehr über die API vonstatten gehen läßt als durch den Treiber. Mit anderen Worten, die Software/Game Schreiber sollten das tun...passiert ist bis heute fast nix. In der Hinsicht.

Das Problem an Ampere ist glaub ich simpel die INT-Leistung hat man NICHT mitskaliert in den Shadern. Und es ist eben bei weitem nicht so wie nVidia behauptet dass man ja eigentlich "nur" 25% INT-Leistung braucht.

Das Ampere Design kann nun zwar 128 FP32 rechnen...ODER eben 64 FP32 + 64 INT gleichzeitig.
Aber gerade die INT sind AFAIK sehr "latenzgebunden". D.h. brauch ich eben gerade einen INT, muss der Shader auf z.B. 32FP32 und 1 INT switchen...weil der den INT halt braucht und der "Rest" der FP leistung verpufft dann. (bzw. wird eben nicht gerechnet).

Klar kann man sowas durch ein anderes Softwaredesign vermutlich umgehen - aber das wird ähnlich wie die Revolution im Software-Design/API-Use die AMD mit GCN "zeitnah" erwartet hat halt eben nicht passieren.

IMHO...ist Ampere genau das was AMDs GCN damals war...erstmal beeindruckend von der Idee und der Arch, aber es scheitert eben an der mangelnden "Kompatibilität" der bestehenden Software diese Leistung auch auf die Strasse zu bringen.

In 10 Jahren wenn die Software sich hier dann wieder etwas bewegt hat, kann schon sein, daß die Karten dann immer noch OK sind - aber ganz ehrlich in 10 Jahren haben hier die meisten schon die 3te oder 4te Nachfolge GPU im Rechner.

Dschounz
2020-10-01, 13:50:13
Fine Wine...das ich nicht lache.

Entweder ist Ampere derart Revolutionär, daß ich die dafür notwendigen Softwareumbauten auch in 10 Jahren nicht im Einsatz sehe und man hat sich damit ähnlich wie AMD mit GCN eben verspekuliert.

Denn GCN war damals auch revolutionär, setzte aber voraus, daß man die Aufgabenverteilung deutlich mehr über die API vonstatten gehen läßt als durch den Treiber. Mit anderen Worten, die Software/Game Schreiber sollten das tun...passiert ist bis heute fast nix. In der Hinsicht.

Das Problem an Ampere ist glaub ich simpel die INT-Leistung hat man NICHT mitskaliert in den Shadern. Und es ist eben bei weitem nicht so wie nVidia behauptet dass man ja eigentlich "nur" 25% INT-Leistung braucht.

Das Ampere Design kann nun zwar 128 FP32 rechnen...ODER eben 64 FP32 + 64 INT gleichzeitig.
Aber gerade die INT sind AFAIK sehr "latenzgebunden". D.h. brauch ich eben gerade einen INT, muss der Shader auf z.B. 32FP32 und 1 INT switchen...weil der den INT halt braucht und der "Rest" der FP leistung verpufft dann. (bzw. wird eben nicht gerechnet).

Klar kann man sowas durch ein anderes Softwaredesign vermutlich umgehen - aber das wird ähnlich wie die Revolution im Software-Design/API-Use die AMD mit GCN "zeitnah" erwartet hat halt eben nicht passieren.

IMHO...ist Ampere genau das was AMDs GCN damals war...erstmal beeindruckend von der Idee und der Arch, aber es scheitert eben an der mangelnden "Kompatibilität" der bestehenden Software diese Leistung auch auf die Strasse zu bringen.

In 10 Jahren wenn die Software sich hier dann wieder etwas bewegt hat, kann schon sein, daß die Karten dann immer noch OK sind - aber ganz ehrlich in 10 Jahren haben hier die meisten schon die 3te oder 4te Nachfolge GPU im Rechner.

Analog zu AMD damals bei GCN ist das die Wette von nVidia, dass zukünftig die Spiele-API`s primär FP-lastig sind.

Kann sein, ist auch wahrscheinlich, muss aber nicht oder kann sich in mittlerer Zukunft wieder ändern.

Den Swing gab`s ja schon mal bei CPU's mit GL-Quake, als plötzlich nicht mehr INT gefragt war (wo zB die Cyrix-Prozessoren stark waren), sondern FP, wo Intel nicht einholbar war zu dieser Zeit.
Einige Jahre später wurde INT wieder wichtiger....

Troyan
2020-10-01, 14:06:12
Das Problem an Ampere ist glaub ich simpel die INT-Leistung hat man NICHT mitskaliert in den Shadern. Und es ist eben bei weitem nicht so wie nVidia behauptet dass man ja eigentlich "nur" 25% INT-Leistung braucht.

Das Ampere Design kann nun zwar 128 FP32 rechnen...ODER eben 64 FP32 + 64 INT gleichzeitig.
Aber gerade die INT sind AFAIK sehr "latenzgebunden". D.h. brauch ich eben gerade einen INT, muss der Shader auf z.B. 32FP32 und 1 INT switchen...weil der den INT halt braucht und der "Rest" der FP leistung verpufft dann. (bzw. wird eben nicht gerechnet).


Aha. Und bei AMD verpufft nichts, weil bei denen überhaupt keine INT32 Operationen ausgeführt werden, oder was?

Frage an Leonidas: Sind solche Trolle gewünscht? Sind diese reinen Hasspostings gegen nVidia hier gewollt?

MiamiNice
2020-10-01, 14:18:32
Klar kann man sowas durch ein anderes Softwaredesign vermutlich umgehen - aber das wird ähnlich wie die Revolution im Software-Design/API-Use die AMD mit GCN "zeitnah" erwartet hat halt eben nicht passieren.


Du vergisst hier imo die Marktanteile. AMDs "Extrasüppchen", das quasi mit jedem neuem Release neu gekocht wird, schlägt am markt kaum durch weil AMD nicht berücksichtigt wird. Wenn Intel oder NV ein "Extrasüppchen" kochen wird es meist breit unterstützt. AMD hatte schon immer zu wenig Marktmacht.

Leonidas
2020-10-01, 14:20:50
Gegenthese: Rohpower ist eigentlich schon immer gut gealtert, siehe AMDs GCN. So etwas ähnliches erwarte ich auch mit Ampere (zumindest bei den Modellen wo der VRAM passt).


Dagegen spricht nichts. Nur haben WCCF das eher so aufgezogen, also sollte damit dann die Performance-Verdopplung in der Nähe sein. Und das wird nicht passieren.




Du vergisst hier imo die Marktanteile. AMDs "Extrasüppchen", das quasi mit jedem neuem Release neu gekocht wird, schlägt am markt kaum durch weil AMD nicht berücksichtigt wird. Wenn Intel oder NV ein "Extrasüppchen" kochen wird es meist breit unterstützt. AMD hatte schon immer zu wenig Marktmacht.


Ein sehr wichtiger Punkt. Vorteil für nVidia.

Nicht der eine Gast
2020-10-01, 14:24:40
Ich finde die ganze Diskussion etwas seltsam. Schon CGN hat gezeigt, dass die Shader nicht unnütz sind. Es gibt einige Effekte die darüber berechnet werden können. Nur hat dieses die alten Nvidia Karten und die Ausrichtung auf diese Karten vieles in dieser Hinsicht verhindert. Und dazu kommt noch die bessere Eignung für Berechnungen einschließlich Cryptomining. Da Nvidia eh einen Ansatz mit großen Die und billigen Herstellverfahren gewählt hat, ist ein zweitnutzen als Minigkarte naheliegend. Das diese Einheiten auch zur Nutzung von neuen Funktionen wie bei Titan V genutzt werden kann.
Bei AMD sieht das ganze etwas anders aus. Zum einen ist nicht die Softwareunterstutzung (GameWorks, diverse publisher und engineanbieter) da. Auch hat man sich für ein teures Herstellverfahren entschieden. Auch hat AMD nicht so viele Kunden, die jeden Preis bezahlen.
es bleibt zu hoffen, dass AMD am Thema Shader Leistung dran bleibt. Es ist ja abzusehen, das dieses in Zukunft wichtiger sein wird. Es ja nicht das erste al das alles einschließt der Test der Vorteilen der Platzhirsche wie Intel oder Nvidia angepasst wird.

Gast
2020-10-01, 14:24:43
Aha. Und bei AMD verpufft nichts, weil bei denen überhaupt keine INT32 Operationen ausgeführt werden, oder was?

Nicht mit den gleichen Shadern. Und genau darum gehts doch. Die Angaben von Nvidia sind reiner Betrug.

Bei ATIs "alten" 4D Shadern hat auch keiner die Anzahl mit 4 multipliziert.

Aber jetzt, bei Nvidia zieht man sich sonstwas für dumme/gelogene Argumente aus dem ...
Inklusive der "Fachpresse". Anstatt hier mal klar die Märchenstunde von Nvidia zu beenden.


Frage an Leonidas: Sind solche Trolle gewünscht? Sind diese reinen Hasspostings gegen nVidia hier gewollt?

Ich schätze du meinst damit dich.

Kriegsgeier
2020-10-01, 14:31:29
Mit RDNA2 wird AMD im Gamingbereich No1 werden!
Also aufpassen muss jetzt NVIDIA und Intel ;-)

Überall RDNA2: Konsolen, PC und bald bei SAMSUNG im Mobilesigment

Lehdro
2020-10-01, 14:32:21
Aha. Und bei AMD verpufft nichts, weil bei denen überhaupt keine INT32 Operationen ausgeführt werden, oder was?
Wo stand da irgendwas von AMD? Ziemlicher Beißreflex...außerdem unterirdischer Argumentationsstil (https://de.wikipedia.org/wiki/Whataboutism).

Frage an Leonidas: Sind solche Trolle gewünscht? Sind diese reinen Hasspostings gegen nVidia hier gewollt?
Dass die Architektur nun einmal anders real-leistungstechnisch skaliert als es die eigentlichen Rohdaten vermuten lassen ist jetzt schon ein Hassposting? :freak:
Das sind Fakten, derzeit wirkt die Architektur halt unausgewogen, aber genau darum geht es in der News: Ändert sich das in Zukunft? Wenn ja, in welchem Ausmaße?
Ich sehe Ampere schon als mutige Wette NVs Richtung Zukunft - und hoffe dass sich das für sie auszahlt.

Berniyh
2020-10-01, 14:34:01
Die Idee mit 1024bit HBM2e + 256bit GDDR6 Interface ist interessant, wenn sich das wirklich kombinieren laesst. Halte es aber fuer eher unwarscheinlich das man diesen Spagat macht. Was meiner Meinung nach jedoch fuer ein Hybrid spricht (also getrennt genutztes 2048bit HMB2e und 256bit Interface) ist das man sowohl eine ~ 820GB/s Version mit teurem HBM2e und Interposer auf den Markt bringen kann, als auch eine kleinere Version mit ~ 512GB/s GDDR6 Speicher als normales Package.
Eigentlich ist die wesentliche Idee, dass man einen HBM2 Stack heutzutage evtl. ohne Interposer anbinden kann.
Dazu gibt es Technologien und Patente, allerdings wurde es bislang seitens AMD noch nicht umgesetzt.
Irgendwann wäre aber immer das erste mal.

So eine Hybrid-Idee geht aber dann immer davon aus, dass auch bei HBM2(e) dann noch der zusätzliche zweite Stack signifikante Kosten verursacht, denn sonst würde man sich die GDDR6 Geschichte wahrscheinlich komplett sparen.
Zahlen dazu gibt es meines Wissens leider nicht wirklich.
Es braucht schliesslich "langsam" auch ein Replacement fuer die Radeon VII. Da sind eigentlich 2048bit HBM2e auch noch etwas duenn ;)
Die VII hat 4096 Bit HBM2 (ohne e).
Leider wissen wir derzeit nicht, ob die VII 16 oder 32 TCCS hat. Auf jeden Fall sind es aber 32 Speicherkanäle.

Wenn ich das mit den TCCS richtig verstanden habe, dann ist bei einer Anzahl von deren 16 folgendes recht problemfrei moeglich:

256bit GDDR6
512bit GDDR6
1024bit HBM2e (Controller Flaeche ~ 64bit GDDR6)
2048bit HBM2e (Controller Flaeche ~ 128bit GDDR6)
3072bit HBM2e (Controller Flaeche ~ 192bit GDDR6)
4096bit HBM2e (Controller Flaeche ~ 256bit GDDR6)
Prinzipiell ja.
Wobei bei einem Hybrid Interface sich die beiden Speichercontroller die TCCS teilen müssten.
Bei 256 Bit GDDR6 + 2048 Bit HBM2(e) hätte man jeweils 16 Speicherkanäle (also insgesamt 32), die man an 16 TCCS anbinden würde.
Entweder dann 8 zu 8, oder (was aber wohl von der Verdrahtung her komplexer wäre) 1 zu 1 (und das dann 16 mal).

Ich habe die Mutmaßungen aber eigentlich eh so verstanden, dass Navi 21 eigentlich ein HBM Speicherinterface hat, an welches man aber auch – in irgendeiner Form? – GDDR6 Speicher anschließen kann, über den ominösen Emulationsmodus.

Troyan
2020-10-01, 14:38:17
Wo stand da irgendwas von AMD? Ziemlicher Beißreflex...außerdem unterirdischer Argumentationsstil (https://de.wikipedia.org/wiki/Whataboutism).

GCN? :freak:
Lese dort nur blablablaAMDAMDGCNGCNblabla.

Sein Posting ist wohl ein klarer Trollversuch hier die bessere Architektur schlecht dastehen zulassen. Was ist das? Achja, unterirdischer Argumentationsstil (https://de.wikipedia.org/wiki/Whataboutism)

Ampere hat nichts mit GCN zu tun.


Dass die Architektur nun einmal anders real-leistungstechnisch skaliert als es die eigentlichen Rohdaten vermuten lassen ist jetzt schon ein Hassposting? :freak:
Das sind Fakten, derzeit wirkt die Architektur halt unausgewogen, aber genau darum geht es in der News: Ändert sich das in Zukunft? Wenn ja, in welchem Ausmaße?
Ich sehe Ampere schon als mutige Wette NVs Richtung Zukunft - und hoffe dass sich das für sie auszahlt.

Dann sollest du einfach mal ALLE Rohdaten aufzählen und mit Turing vergleichen. Und dann machst du dies im Zusammenhang mit einem Spiele-Frame und analysierst, wo Limitierungen auftreten.

Alles andere ist reiner Hass, der dann in solchen Postings mündet. Und daher die klare Frage, ob solche Hasspostings hier erwünscht sind.

Und nochmal für dich, das Hassposting abgekürzt:
Fine Wine...das ich nicht lache.
wie AMD mit GCN

Denn GCN

die AMD mit GCN

was AMDs GCN


Ne, überhaupt kein Bezug zu AMD. Null. Nada.

Iscaran
2020-10-01, 14:47:08
@Troyan:

Häh? Wo bitte ist mein Posting Hass, wenn ich versuche auf die Architekturielle "limitierung" einzugehen und dass ich eben nicht glaube, daß sich diese Limitierung eben "einfach so" in Luft auflösen wird in naher Zukunft. Das hat schon damals bei GCN nicht funktioniert, weswegen AMDs re-Design in RDNA ein paar z.T. sehr deutliche Umstellungen und Anpassungen vorgenommen hat um "besser" mit der aktuellen Softwaresituation zu können.

Es ist Fakt dass die Ampere Shader NUR entweder 128 FP32 ODER 64 FP32 + 64 INT gemischt abarbeiten können (wobei ich hier gerade nicht weiss ob das von 1-64 "beliebig" gemischt sein kann).

Da die Ints nunmal stärker "gebunden" abgehandelt werden MÜSSEN (zumindest in Games). KANN Ampere eben nur sehr selten die Option ausfahren die Shader mit 128 FP32 arbeiten zu lassen.
EDIT: Und GENAU DAS, senkt die "effektive" FP32 Leistung eben. Und zwar derart dass von 2x soviel FP32 nur ca +30% "ankommen". Zeigen doch die Benchmarks sehr gut.
In hochspezialisierten Fällen klappt es ja mit der doppelten FP-Leistung.
Fakt ist auch dass GCN und die RDNA Architektur in ihren Shadern INT und FP32 parallel abarbeiten können und AFAIK sogar in "beliebigem" Mischungsverhältnis sehr feingranulär (zumindest bei RDNA so).

Lehdro
2020-10-01, 14:56:45
Ne, überhaupt kein Bezug zu AMD. Null. Nada.
Im Bezug auf das FP32 vs INT32 Argument das du in dem Quote anbringst hat er nichts von GCN erwähnt. GCN taucht nur als Vergleich der Stellung einer Architekturänderung die auf die Zukunft ausgerichtet ist auf, nicht als Argument der INT vs FP Diskussion. Soviel Leseverständnis hätte ich dir jetzt aber schon zugetraut. Oder du lernst einfach mal richtig zu zitieren :)


Ein anderes Beispiel fuer Rohpower die nicht auf die Strasse kommt kann man Bulldozer ansehen.
Bulldozer war der Versuch das Pferd von hinten aufzuzäumen - ein absehbarer Fail wenn man die Umstände bedenkt. Wirklich viel Rohpower war da eben nicht vorhanden und zudem noch sehr eigenwillig verteilt.

Naja GCN hatte viel Rohpower konnte sie aber in Spielen nicht auf die Strasse bringen.

[...]und man hat sich damit ähnlich wie AMD mit GCN eben verspekuliert.

Denn GCN war damals auch revolutionär, setzte aber voraus, daß man die Aufgabenverteilung deutlich mehr über die API vonstatten gehen läßt als durch den Treiber. Mit anderen Worten, die Software/Game Schreiber sollten das tun...passiert ist bis heute fast nix. In der Hinsicht.

Durch die viele Rohpower ist GCN aber viel besser gealtert als NVs direkte Konkurrenz. Dass dann daraus fast nix mehr gemacht wurde (weiterentwickelt), liegt ja nicht an der Architektur, sondern an der Umsetzung. Ich verweise da mal auf Tahiti vs GK104 (https://www.techspot.com/article/1592-revisiting-radeon-r9-280x-radeon-hd-7970/) und Hawaii vs GM204 (https://www.techspot.com/review/1822-geforce-gtx-970-vs-radeon-r9-290/): AMD hat hier den "Test of Time" bestens bestanden. Fiji und Vega sind da nur traurige Randnotizen aus einer Zeit, in der sich das Rad schon deutlich weitergedreht hatte, die Architektur aber mehr oder weniger auf der Stelle trat.

Gast
2020-10-01, 14:59:16
Troyan, man muss sich nicht persohnlich angegriffen fuehlen nur weil jemand eine andere Meinung zu einem Vendor hat den man scheinbar fuer unfehlbar haelt. GCN mit Ampere zu vergleichen ist keine Gotteslaesterung ;)

Wie sich das Ungleichgewicht der Ampere GPUs in Zukunft verschieben wird weiss jetzt keiner. Ein Vergleich zu anderen Architekturen die aehnliche Probleme am Markt hatten ist legitim. Und letztendlich geht es hier eh nur um Meinungen.

why_me
2020-10-01, 15:02:50
Oder du lernst einfach mal richtig zu zitieren

In deinem Zitat steht Gast anstatt Troyan... ;D:freak:

Sorry musste sein. :biggrin:

Iscaran
2020-10-01, 15:04:58
Im Bezug auf das FP32 vs INT32 Argument das du in dem Quote anbringst hat er nichts von GCN erwähnt. GCN taucht nur als Vergleich der Stellung einer Architekturänderung die auf die Zukunft ausgerichtet ist auf, nicht als Argument der INT vs FP Diskussion.

Ja. So ist es.

Durch die viele Rohpower ist GCN aber viel besser gealtert als NVs direkte Konkurrenz. Dass dann daraus fast nix mehr gemacht wurde (weiterentwickelt), liegt ja nicht an der Architektur, sondern an der Umsetzung. Ich verweise da mal auf Tahiti vs GK104 (https://www.techspot.com/article/1592-revisiting-radeon-r9-280x-radeon-hd-7970/) und Hawaii vs GM204 (https://www.techspot.com/review/1822-geforce-gtx-970-vs-radeon-r9-290/): AMD hat hier den "Test of Time" bestens bestanden. Fiji und Vega sind da nur traurige Randnotizen aus einer Zeit, in der sich das Rad schon deutlich weitergedreht hatte, die Architektur aber mehr oder weniger auf der Stelle trat.

Ja immerhin hat also die brachiale Rohpower nach 5 Jahren zu +15% Performance geführt.

Na dann werden wir die RTX 3080 in 5 Jahren mit einer +150% schnelleren Karte vergleichen können ;-).

Vermutlich stößt er sich am Begriff "Fine Wine" - den WCCF-Tech ja auch ganz bewusst in Anspielung an AMD gewählt hat (?).

Troyan
2020-10-01, 15:17:38
@Troyan:

Häh? Wo bitte ist mein Posting Hass, wenn ich versuche auf die Architekturielle "limitierung" einzugehen und dass ich eben nicht glaube, daß sich diese Limitierung eben "einfach so" in Luft auflösen wird in naher Zukunft. Das hat schon damals bei GCN nicht funktioniert, weswegen AMDs re-Design in RDNA ein paar z.T. sehr deutliche Umstellungen und Anpassungen vorgenommen hat um "besser" mit der aktuellen Softwaresituation zu können.

Weil deine Ausführungen nichts mit der Realität zu tun haben. Dein Posting ist ein Sammelsurium von Aussagen indem es am Ende nur darum geht den Eindruck zu erwecken, dass Ampere und GCN irgendwelche Gemeinsamkeiten hätten.

Die einzige technische Ausführung, die du angeführt hast, ist das:


Das Ampere Design kann nun zwar 128 FP32 rechnen...ODER eben 64 FP32 + 64 INT gleichzeitig.
Aber gerade die INT sind AFAIK sehr "latenzgebunden". D.h. brauch ich eben gerade einen INT, muss der Shader auf z.B. 32FP32 und 1 INT switchen...weil der den INT halt braucht und der "Rest" der FP leistung verpufft dann. (bzw. wird eben nicht gerechnet).

Nicht nur, dass dies einfach falsch ist. Denk einfach mal darüber nach, was die Konsequenz einer solchen Abarbeitung für Architekturen ist, die keine parallele Abarbeitung können.

Und vielleicht ist es daher hilfreich, auch für Leute die vorallem auch die News-Kommentar-Seite nutzen möchten, solche technisch unterirdischen Postings vor dem Abschicken mal zu überdenken und zu löschen. Denn in den letzten Monaten ist jede News, wo auch nur irgendwie nVidia vorkommt, besetzt mit Hasspostings sondersgleichen.

Lehdro
2020-10-01, 15:17:52
In deinem Zitat steht Gast anstatt Troyan... ;D:freak:

Sorry musste sein. :biggrin:
Fixed :cool:

Ja immerhin hat also die brachiale Rohpower nach 5 Jahren zu +15% Performance geführt.

Na dann werden wir die RTX 3080 in 5 Jahren mit einer +150% schnelleren Karte vergleichen können ;-).
Ich würde das relativ zu den Leistungssteigerungen sehen. Damals waren 5 Jahre eine größere Leistungsdifferenz als es diese ab heute sein werden. Wir sehen ja wie sich das alles verlangsamt. Somit können es dann halt nicht diese ~30% Mehrpower aus verdoppelter Shaderpower wie heute sein, sondern vielleicht mehr so in die Richtung ~50% wenn es wirklich shaderintensiver wird in den nächsten Jahren. Das wäre schon ein Glanzstück und in einem ähnlichen Rahmen wie damals bei GCN, wo dieser Faktor "+15%" btw schon nach 2-3 Jahren auftrat und dort dann verharrte weil die Bremse dann halt woanders war. GCN hatte ja mitnichten die doppelte Rohpower gegenüber den NV Counterparts, das lag afair eher um die +20-30%. Daraus die Hälfte als Mehrperformance zu ziehen ist doch ganz okay.

Vermutlich stößt er sich am Begriff "Fine Wine" - den WCCF-Tech ja auch ganz bewusst in Anspielung an AMD gewählt hat (?).
Wenn man das natürlich so negativ konnotiert wie er es wahrscheinlich tut, sicherlich. Für mich ist das eigentlich nur noch ein Meme, was den technischen Hintergründen halt sämtliche Komplexität abspricht.

Gast Ritis
2020-10-01, 16:35:24
Die Analogie zwischen GCN und Ampere kann man sicherlich durchleuchten.

Aber man muss doch auch ganz klar die unterschiedlichen Rahmenbedingungen sehen sowie die Differenzen.

AMDs GCN hat schon dadurch gelitten, dass die Wavefronts 64 Instruktionen breit sind und nicht 32 wie bei Nvidia, worauf mit RDNA eingelenkt wurde.

Das nächste Dilemma von GCN war DX11. Es war ohne moderne APIs extrem schwer ungenutzte Shader-Einheiten zusätzlich auszulasten. Ob das nun mit Async Compute versucht wurde oder TrueAudio.
Noch schwerer als DX11 wog aber Gameworks. Das sind auf die Arch von Nvidia optimierte Shader, bei denen die Konkurrenz einfach schlecht aussah und AMD musste mit OpenSource FX mühsam und langsam dagegensteuern als man zu wenig Geld und Interesse für Software und Entwickler hatte.

Den Fine Wine Bonus sollte man eigentlich für Nvidia nicht erwarten müssen. Erstens mangelt es denen nicht an Entwicklern für Gameworks und zweitens sind bereits in APIs beste Voraussetzungen für AsyncCompute etabliert. Wenn das künftig besser eingesetzt würde könnte das sogar noch den grossen Vegas helfen...

Nvidia hat sich wohlmöglich bequem gegeben, DLSS ist ja auch schon fast so ne Story wie AMDs Async Compute oder TrueAudio. Diverse Techdemo aber keine Umsetzung in der ganzen Breite.

Mit Raytracing Effekten könnte Ampere besser altern, wenn dann weniger mit Mehrfach-Texturen beim Rastern oder Postprocessing gearbeitet wird und dafür mehr Shadercode pro Pixel für die Beleuchtung genutzt wird. Das muss aber auch erst mal entwickelt werden. Alle Augen liegen jetzt auf den kommenden Konsolen-Titeln.

Schnoesel
2020-10-01, 17:10:57
Wenn sich der größte Troll über Trolle beschwert? Danke für die Lacher.

nonharderware
2020-10-01, 18:50:04
Zum Thema Big Navi und Cache / 256Bit Speicherinterface:


Was meint ihr den zu meiner hier (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12444770#post12444770) aufgegriffenen Spekulation?

Gast
2020-10-01, 21:15:22
Es ist Fakt dass die Ampere Shader NUR entweder 128 FP32 ODER 64 FP32 + 64 INT gemischt abarbeiten können (wobei ich hier gerade nicht weiss ob das von 1-64 "beliebig" gemischt sein kann).


Du hast anscheinen keine Ahnung wie GPUs arbeiten und versuchst hier aus deinem Nichtwissen dir irgendwelche Schlussfolgerungen aus den Fingern zu saugen.

Zur Erinnerung. Nvidia-GPUs arbeiten mit sogenannten Warps. Dabei handelt es sich um ein Bündel aus 32 Threads. Diese 32 Threads müssen immer gemeinsam den gleichen Befehl abarbeiten, nicht nur FP oder INT, sondern genau ein ADD, MUL oder whatever gerade ansteht. Wenn es bedingte Sprünge gibt die nur einen Teil der threads eines Warps betreffen führt das zwangsweise zu Verlusten in der Auslastung, weil dann für alle 32 Threads eben beide Teile des Sprungs berechnet werden müssen, und der Teil der nicht benötigt wird verworfen wird.


Da die Ints nunmal stärker "gebunden" abgehandelt werden MÜSSEN (zumindest in Games).


Was soll das heißen? Den Fachausdruck "stärker gebunden" habe ich noch nie gehört.


KANN Ampere eben nur sehr selten die Option ausfahren die Shader mit 128 FP32 arbeiten zu lassen.


Ampere kann sogar praktisch immer die 128Threads arbeiten lassen, zumindest so lange nichts anderes limitiert.
Das Auslastungsproblem hatte vielmehr Turing, der konnte nur 128 Threads arbeiten lassen, wenn das Verhältnis INT zu FP 1:1 war, was bei Spielen praktisch nie der Fall ist.

Bei Ampere können immer 128Threads arbeiten, so lange das INT zu FP Verhältnis im Bereich 0:1 bis 1:1 ist, was bei Spielen so gut wie immer der Fall sein sollte. Erst wenn mehr INT als FP Berechnungen anstehen bekommt Ampere Probleme mit der Auslastung.


EDIT: Und GENAU DAS, senkt die "effektive" FP32 Leistung eben. Und zwar derart dass von 2x soviel FP32 nur ca +30% "ankommen". Zeigen doch die Benchmarks sehr gut.


Der Fehler ist vom FPS-Anstieg irgendwie auf die Effektivität der FP32-Shader zu schließen.

Frames bestehen aber nicht ausschließlich aus FP32-Operationen. Unter anderem spielt Texturfilterung bei der Berechnung eines Frames immer noch eine sehr wichtige Rolle, und Ampere hat gleich viele TMUs wie Turing.


In hochspezialisierten Fällen klappt es ja mit der doppelten FP-Leistung.
Fakt ist auch dass GCN und die RDNA Architektur in ihren Shadern INT und FP32 parallel abarbeiten können und AFAIK sogar in "beliebigem" Mischungsverhältnis sehr feingranulär (zumindest bei RDNA so).

Das Äquivalent zu den oben genannten Warps bei Nvidia bilden bei AMD sogenannte Wavefronts. Bis RDNA bestand eine Wavefront immer aus 64 Threads. Bei RDNA können diese nun entweder aus 64 oder aus 32 Threads bestehen.

Wie du siehst war die Granularität bei GCN schlechter als bei Nvidia, und ist mit RDNA jetzt auf gleichem Level.