PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 17. Mai 2022


Leonidas
2022-05-18, 10:30:32
Link zur News:
https://www.3dcenter.org/news/news-des-17-mai-2022

Berniyh
2022-05-18, 11:24:45
"Plum Bonito" (also Farbe + Fischart) klingt nach einem der zufällig generierten Codenamen für Linux.
Eigentlich dachte ich, dass die nicht mehr verwendet werden, da die meisten Architekturdetails jetzt direkt vom Device selbst ausgelesen werden, aber evtl. taucht der Name doch dort irgendwo auf.
Ist aber höchstwahrscheinlich kein "richtiger" Codename bei AMD intern.

Leonidas
2022-05-18, 11:26:09
Möglicherweise taucht jener deswegen so spät auf.

Dino-Fossil
2022-05-18, 12:26:27
In den letzten Jahren hatten wir eigentlich immer das gleiche Muster:
nVidia kam am Ende eigentlich immer früher als die Gerüchteküche zunächst besagt hat, während AMD meist später dran war.
Deswegen gebe ich generell nichts mehr auf frühe Spekulationen zu Launch-Daten, schon gar nicht wenn es mal wieder heißt nVidia käme deutlich nach AMD.

Gast Ritis
2022-05-18, 13:04:55
Die neue AMD Gen wird richtig rocken. Dann kann Nividia mit ihrem Rohrkrepierer einpacken. AMD wird die Führung deutlich ausbauen. Ich denke noch maximal 1 Gen und Nividia ist da wo es hingehört. In der Bedeutungslosigkeit.

Gast
2022-05-18, 13:58:50
Wieso denn kräftiger als gedacht, wenn gerade mitgeteilt wurde das man von 144 auf 126 runtergeht. Natürlich liegt das alles nur an AMD, genauso wie die Polkappen wegen AMD abschmelzen.:rolleyes:

Man hat gerade mitgeteilt das NVidia schwächer wird als der Hype suggerierte, nicht stärker. Bin mal gespannt was davon übrig bleibt.

Man könnte den Schuh also auch umdrehen, weil NVidia geradezu weniger bringt als erwartet, macht AMD genau das Gleiche und beide könne viel mehr verursachten als gedacht. Aber das kommt ja nicht in die Tüte!

Tapeout Januar 2022! Klar sind die total hinten dran. Oh man...

bad_sign
2022-05-18, 14:27:51
Greymonn55 hat doch bereits verlauten lassen, die alten Pläne zu RDNA3 sind nicht mehr aktuell, also q1 2023 ist eher unwahrscheinlich für 31/32

bad_sign
2022-05-18, 14:29:51
Link zur Aussage
https://mobile.twitter.com/greymon55/status/1525837157515993090?cxt=HHwWhICp7e-z7qwqAAAA

Sweepi
2022-05-18, 14:42:17
Es gab Spekulationen, das Ada nach Navi 3x kommt?

Leonidas
2022-05-18, 15:16:18
Wieso denn kräftiger als gedacht, wenn gerade mitgeteilt wurde das man von 144 auf 126 runtergeht.

Eine gewisse Abspeckung der 4090 war zu erwarten. Das "kräftiger als gedacht" bezieht sich auf die Power der Shader-Cluster - man folge schlicht dem gesetzten Link.



Es gab Spekulationen, das Ada nach Navi 3x kommt?

Die gab es in der Tat nie.

Dino-Fossil
2022-05-18, 16:19:34
Die gab es in der Tat nie.

Ich zitiere deine News vom 29.4.2021:

In der Summe der Dinge könnte es aber nichtsdestotrotz auf einen gewissen Zeitvorsprung von AMD gegenüber nVidia bei den nächsten Grafikchip-Generationen hinauslaufen. Gemäß der bisher bekannten Rahmenbedingungen hat nVidia diesesmal schlicht den späteren Terminansatz, sollte ergo bei halbwegs normalen Verlauf auch tatsächlich später erscheinen. Nur bei einem eher ungünstigen Verlauf bei AMD und einem sehr günstigen Verlauf bei nVidia wäre es möglich, dass beide NextGen-Projekte grob im selben Zeitrahmen zum Jahresende 2022 erscheinen – und nVidia eventuell einen um ein paar Tage oder Wochen früheren Vorstellungstermin erreicht. In allen anderen Verlaufsszenarien kommt AMD um ein paar Monate bis einige Quartale früher heraus – wobei die großen Differenzen dann schon ziemlich unwahrscheinlich sind. Ein grob zeitgleicher Start der jeweiligen NextGen-Grafik ist nach wie vor möglich, ein beachtbarer Zeitvorsprung AMDs hat aber wohl wenigstens eine gleich große (oder gar größere) Chance.

:P:wink:

bbott
2022-05-18, 16:27:25
Die NV Gerüchte wurden als besser, die von AMD als schlechter, Zeit als auch Perf betreffend.

WedgeAntilles
2022-05-18, 16:37:12
Die gab es in der Tat nie.

Doch. Es ist schon länger her, aber zu Beginn sollte Lovelace später als RDNA3 rauskommen.


Edit: Oh, da hat Dino ja sogar schon die News verlinkt. Danke :)

Hjalmar
2022-05-18, 16:52:12
Die 1630 wird womöglich nix anderes als eine PNY T600 werden:
https://geizhals.de/pny-t600-vcnt600-sb-a2535307.html?hloc=at&hloc=de
10 SM, TU 117, 4 GB GDDR6. Wird seit Mitte letzten Jahres angeboten.
Sollte dann ca. bei einem FHD-Index von 343 rauskommen.(Edit: bei gleichen Taktraten wie der 1650 - was möglich wäre, wenn man noch die 10-15W bis zur TDP der 6400 draufhaut)

Sweepi
2022-05-18, 17:23:39
Hier ist der Link: https://www.3dcenter.org/news/geruechtekueche-nvidias-nextgen-kommt-spaeter-als-erwartet-ampere-muss-wohl-bis-ende-2022-durch
Da hat sich kopite7kimi Einschätzung (die auch 13 Monate her ist) aber hart geändert :

I guess Ampere's life will be extended at least until the end of next year.

Gast
2022-05-18, 17:34:27
Es gibt Redaktionen, die solche Softwaretools verwenden? Ich hoffe, 3DC verwendet die Ergebnisse nicht für Index. Wirft generell schlechtes Bild auf solche 'Test'labore.


Die 1630 wird womöglich nix anderes als eine PNY T600 werden
+1
Kosten sehe ich an sich kein Problem, weil Salvage.
Aber es ist Turing, also jetzt schon veraltet.
Viel zu stark, um neben 1050Ti auch 710/730 zu beerben.
Einen TU118 brauchen wir nicht mehr erwarten.
Außer Salvage fällt mir kein Argument ein. Samsung dürfte jetzt Kapazität über haben.

Leonidas
2022-05-18, 18:13:54
:P:wink:

Wunderbar! Hab ich nicht mehr im Kopf gehabt. So lange reden wir schon über Ada & RDNA3 ... Mea culpa, anyway.



Es gibt Redaktionen, die solche Softwaretools verwenden? Ich hoffe, 3DC verwendet die Ergebnisse nicht für Index. Wirft generell schlechtes Bild auf solche 'Test'labore.

Nein, natürlich nicht.

Und von den HW-Testern verwendet diese Werte auch keiner. Aber in Foren wird es gern verwendet. Im Gegensatz zu früheren Terminlagen von Ada&RDNA3 ;) erinnere ich mich an diese User, die schworen ihre RX480 verbraucht nur 110 Watt - weil das hat die Auslesesoftware so angegeben.



Die 1630 wird womöglich nix anderes als eine PNY T600 werden:

:up:

Loeschzwerg
2022-05-18, 18:28:37
Die T600 habe ich u.a. im 3DMark mit DG1, RX550 und P600 verglichen:
https://www.computerbase.de/forum/threads/intel-dg1-probleme-u-loesungen.2077997/page-5#post-26891142

Weiter unten im Thema ist dann auch ein CSGO Bench Video.

Gast
2022-05-18, 19:46:00
Das "kräftiger als gedacht" bezieht sich auf die Power der Shader-Cluster - man folge schlicht dem gesetzten Link.
Wooh, da endet dein Latein schon? Schön das Du die "theoretische Rechenkraft" vorhälst und sie gleichmal als faktisch abrufbar deklariest. Solche Lobreden kennen wir aus der Vergangenheit, inbesondere von Dir. Die Ampere ja nie erreicht hat, weil er dann schon 600W gebraucht hätte.

Hast du dich schon mal gefragt, wie sich Rechenkraft definiert und vor allem welchen Mangel es in einer GPU dann bei Auslastung gibt der diesen beeinflusst? Wenn du alle Einheiten gleichzeitig rechnen lassen würdest, geht nämlich das Licht aus! Rechenkraft=Energieaufnahme=Wärmeentwicklung=physikalische Machbarkeit. Das ist kein Auslastungsszenario als absolutes Limit, sondern schlichtweg der Architektiur geschuldet, dass das NICHT geht und was soll Lovelace da besser machen? Schwachsinn³, Nvidia Marketing.

Das Problem ist nämlich das bei Auslastung, Energieverfügbarkeit zur Mangelware auf einer GPU wird, aber die heutigen Designs aufgrund verwendeter Material nicht endlos mit Energie versorgt werden können. Deine "zusätzlichen" Einheiten (die leider keine sind sondern ein Operant) denen du soviel Rechenkraft zuschreibst, brauchen vor allem Eins, sehr viel E-Power und nur diese gleichzeitige Vergabe limitiert eine GPU. Es ist in dem Fall immer einfach physikalische Theorien zu beschreiben, aber die dazugehörigen und zum Teil sehr abstrakten starken Wechselwirkungen bzw. Abhängigkeiten zueinander, denen sie unterliegen einfach mal aussen vor zu lassen. Dabei geht es im Rahmen der Effizienz immer um feste Bugets, weil sonst die Stabilität leidet und deshalb der gesamte Workflow immer dynamisch auf einer GPU verteilt wird (werden muss), zugleich wo viele heterogene Prozesse verwaltet werden müssen.

Wahrscheinlich reicht dieser kurze Beitrag schon, dir zu sagen, nö mal wieder falsch - das Geblubber von einer Super Duper GPU, die ihre Leistung aus irgendwelchen imaginären Rechenkernen zieht die man nur zu 20% braucht. Ansonsten tun sie nichts und kosten nur, belasten damit das Buget aller anderen Einheiten.:P

Dino-Fossil
2022-05-18, 22:01:08
Wunderbar! Hab ich nicht mehr im Kopf gehabt. So lange reden wir schon über Ada & RDNA3 ... Mea culpa, anyway.

Hatte das auch nur noch im Hinterkopf, der News-Index war aber sehr hilfreich um das schnell wieder zu finden. ;)

Gast
2022-05-19, 08:15:27
Hier ist der Link: https://www.3dcenter.org/news/geruechtekueche-nvidias-nextgen-kommt-spaeter-als-erwartet-ampere-muss-wohl-bis-ende-2022-durch
Da hat sich kopite7kimi Einschätzung (die auch 13 Monate her ist) aber hart geändert :

Was soll daran auch nicht stimmen?

Ampere wird auf jeden Fall bis Ende 2022 und wahrscheinlich auch danach durchhalten müssen.
Nur weil einzelnen Lovelace Karten kommen wird das Portfolio Ende 2022 immer noch zum Großteil aus Ampere-Karten bestehen, und der große Umschwung ist erst 2023 zu erwarten.

Gast
2022-05-19, 08:19:13
Eine gewisse Abspeckung der 4090 war zu erwarten. Das "kräftiger als gedacht" bezieht sich auf die Power der Shader-Cluster - man folge schlicht dem gesetzten Link.


Die gezeigten Shadercluster haben aber nicht mehr Rechenkraft, das wieder Aufsplitten von FP32/INT32 in extra Blöcke bringt keinerlei zusätzliche Rechenkraft und höchstens etwas an Energieeffizienz, sofern der restliche Shadercluster wie skizziert aussieht.

Leonidas
2022-05-19, 10:21:40
Die gezeigten Shadercluster haben aber nicht mehr Rechenkraft, das wieder Aufsplitten von FP32/INT32 in extra Blöcke bringt keinerlei zusätzliche Rechenkraft und höchstens etwas an Energieeffizienz, sofern der restliche Shadercluster wie skizziert aussieht.

Du hast Recht, insofern dass dies noch eine Bestätigung benötigt. Aber es besteht die Chance darauf, dass man die gleichzeitig nutzen kann.

Im genauen ist die Chance sogar recht groß. Nicht gleichzeitige Nutzung wäre extreme Silizium-Verschwendung, denn dann könnte man auch einfach Kombi-Einheiten verbauen.

Gast
2022-05-19, 11:48:47
Im genauen ist die Chance sogar recht groß. Nicht gleichzeitige Nutzung wäre extreme Silizium-Verschwendung, denn dann könnte man auch einfach Kombi-Einheiten verbauen.

Nvidia hatte schon immer die die Tendenz für jede Aufgabe eigene ALUs zu verbauen auch wenn diese nicht gleichzeitig genutzt werden.

Sei es extra FP64 Einheiten, anstatt FP64-Einheiten die auch 2xFP32 können, seit Turing extra FP16 Einheiten (gut die können immerhin auch parallel genutzt werden).

Ausnahmen davon gab es nur sehr wenige, wie z.B. Tegra-X1 mit 2xFP16 die auf den FP32 Einheiten läuft, womit man in der Maxwell-Serie allerdings auch komplett alleine ist, keine der Desktop-GPUs kann das, oder jüngst in Ampere mit FP32/INT32 kombiniert.

Das einzige was dafür spricht ist, dass Nvidia diese Einheiten üblicherweise nicht extra ins Blockschaltbild einzeichnet, wenn diese nicht auch parallel genutzt werden können. Beispielsweise hatte auch schon Pascal dedizierte INT32, die allerdings den Registerzugriff mit FP32 teilen und deshalb nicht gleichzeitig genutzt werden können, in den Blockschaltbildern sah man davon aber üblicherweise nichts.

Andererseits sind die aktuell im Umlauf befindlichen Blockschaltbilder mit ziemlicher Sicherheit nicht aus der Feder von Nvidia.

Wenn man allerdings den Schaltbildern mit extra INT32 vertraut, dann muss man auch dem Rest des Schaltbildes vertrauen, und der zeigt nun mal dass die INT32 nicht performancewirksam sind. Und wenn man annimmt das dieser punkt falsch ist, dann gibt es keinen Grund zur Annahme dass die extra INT32 richtig sind.

Und die mögliche Siliziumverschwendung wird maßlos überschätzt, ALUs selbst brauchen nur sehr wenig vom Silizium, der große Aufwand entsteht vom Drumherum um diese auch auszulasten.

Die Tensorcores haben z.B. 128 ALUs pro Block, und lassen die Die-Size deshalb nicht explodieren (auch wenn diese nur FP16 sind), weil man durch deren Spezialisierung sehr viel an Verwaltungslogik einspart, welche der eigentliche Brocken sind. Auch AMD hat vor RDNA extrem viele ALUs/Transistor verbaut.

Der Punkt ist auch Transistorbudget und Powerbudget, und auch wenn es bei letzterem offenbar ziemlich in die Höhe geht, irgendwo setzt man sich nun mal seine Ziele. Und wenn beim Transistorbudget noch was übrig ist, beim Powerbudget aber nicht, macht es durchaus Sinn mehr Tranistoren einzusetzen um effizienter zu werden, anstatt um schneller zu werden, was gar nicht geht weil man damit das selbstgesetzte Powerbudget sprengen würde.

Leonidas
2022-05-19, 12:50:06
Anders formuliert: Beides ist noch möglich. Wir brauchen halt eine klare Bestätigung. Habe ich Kopite7kimi auch so gesagt.

Gast
2022-05-19, 18:10:03
Möglich ist alles, auch das alle bisherigen Spekulationen humbug sind.

Es gibt nur keinen Grund Rosinenpickerei zu betreiben und die extra INT32 als gegeben anzunehmen und gleichzeitig die Limitierung auf 32 Threads/clock vom Scheduler zu ignorieren.

Entweder man vertraut den Gerüchten und nimmt die extra INT ALUs als wahr an und gleichzeitig auch die 32threads am Scheduler, oder man vertraut ihnen nicht, dann kann eh alles passieren.

Gast Ritis
2022-05-20, 09:14:54
Die neue AMD Gen wird richtig rocken. Dann kann Nividia mit ihrem Rohrkrepierer einpacken. AMD wird die Führung deutlich ausbauen. Ich denke noch maximal 1 Gen und Nividia ist da wo es hingehört. In der Bedeutungslosigkeit.

son Quatsch.

Mit gleicher Chip-Tech sind die Unterschiede relativ gering. So viel Gewicht hat das Design nicht, es kommt mindestens genauso auf die Software an. Treiber, Patches, proprietärer Code.